A
Size: a a a
A
SB
ЕГ
⛰
⛰
SB
EV
EV
O
SB
TT
R
val endpoint = new EndpointConfiguration("http://127.0.0.1:8001", "eu-central-1")
s3Client = AmazonS3ClientBuilder
.standard
.withEndpointConfiguration(endpoint)
.withPathStyleAccessEnabled(false)
.withCredentials(new AWSStaticCredentialsProvider(new AnonymousAWSCredentials()))
.build
s3Client.createBucket("flux-local-dev")
super.beforeEach()
В
пар
аметрах спарка прописываю:ark = SparkSession.builder()В тесте
.appName("unit-test")
.master("local[2]")
.config("spark.sql.warehouse.dir", "target/spark-warehouse")
.config("spark.hadoop.fs.s3a.endpoint", "http://127.0.0.1:8001")
.config("spark.hadoop.fs.s3a.impl", "org.apache.hadoop.fs.s3a.S3AFileSystem")
.config("spark.hadoop.fs.s3a.aws.credentials.provider", "org.apache.hadoop.fs.s3a.AnonymousAWSCredentialsProvider<")
.getOrCreate
н
ормально запускается сервер, спарк стартует ОК, но при попытке записаться получаем:le to load AWS credentials from any provider in the chain: [BasicAWSCredentialsProvider: Access key or secret key is null, com.amazonaws.auth.InstanceProfileCredentialsProvider@6a26eee6: Unable to load credentials from service endpoint]к с этим жить вообще? Вроде подсунул же параметр по анонимной авторизации(
Ка
R
A
A
R
K
РА
РА
РА