将文件从s3://复制到本地(hadoop)文件系统时出现错误

布里西

我正在尝试使用python将文件从s3复制到hadoop文件系统。我收到以下错误:

cp: `foo/ds=2015-02-13/ip-d1b-request-2015-02-13_10-00_10-09.txt.gz': No such file or directory

我最近正在迁移最新的hadoop版本(2.4.0)。在版本(0.20)中工作正常。为什么在2.4.0版本中出现此错误?

在Hadoop 0.20版中

hadoop@ip-10-76-38-167:~$ /home/hadoop/bin/hadoop fs -cp s3://test.com/foo/ds=2015-02-13/ip-d1b-request-2015-02-13_10-00_10-09.txt.gz /foo/ds=2015-02-13/ip-d1b-request-2015-02-13_10-00_10-09.txt.gz

15/02/13 11:21:45 INFO s3native.NativeS3FileSystem: Opening 's3://test.com/foo/ds=2015-02-13/ip-d1b-request-2015-02-13_10-00_10-09.txt.gz' for reading

在Hadoop 2.4.0版中

[hadoop@ip-10-169-19-123 ~]$ /home/hadoop/bin/hadoop fs -cp s3://test.com/foo/ds=2015-02-13/ip-d1b-request-2015-02-13_10-00_10-09.txt.gz /foo/ds=2015-02-13/ip-d1b-request-2015-02-13_10-00_10-09.txt.gz

15/02/13 11:21:37 INFO guice.EmrFSBaseModule: Consistency disabled, using com.amazon.ws.emr.hadoop.fs.s3n.S3NativeFileSystem as FileSystem implementation.

15/02/13 11:21:38 INFO fs.EmrFileSystem: Using com.amazon.ws.emr.hadoop.fs.s3n.S3NativeFileSystem as filesystem implementation

cp: `foo/ds=2015-02-13/ip-d1b-request-2015-02-13_10-00_10-09.txt.gz': No such file or directory
布里西

我找到了自己的答案。

Using `distcp` instead of `fs -cp`.

该命令可以正常工作。

本文收集自互联网,转载请注明来源。

如有侵权,请联系 [email protected] 删除。

编辑于
0

我来说两句

0 条评论
登录 后参与评论

相关文章

将文件从s3复制到本地?

hadoop将本地文件复制到Hadoop SF错误

将 Python 中的大文件复制到 S3 存储桶时出现 OSError

将文件从HDFS复制到本地系统时出现问题[copyToLocal:权限被拒绝]

当我使用aws cli将文件从S3复制到EC2时,出现“严重错误:无法找到凭据”

将多个文件从 hadoop 复制到 s3 存储桶

无法将文件从本地文件系统复制到Cloudera上的hadoop / hdfs

Laravel 5:如何将本地文件复制到Amazon S3?

使用Lambda将文件从S3复制到本地EMR

尝试将文件复制到AWS S3存储时出错

将文件从GCS复制到AWS S3时如何设置ACL?

无法将linux中的本地文件复制到hadoop

s3cmd:将文件从s3中的加密存储桶复制到本地计算机

每次将文件发布到存储桶时都将 s3 文件复制到 ec2?

AWS s3是否将s3:// mybucket s3:// mybucket2同步文件复制到本地?

将文件列表从 S3 存储桶复制到 S3 存储桶

将存储桶文件复制到本地磁盘时出现问题

从EC2复制到S3时出现Unknow Option错误

将文件从Box文件夹复制到AWS s3存储桶

当我尝试将文件复制到 aws S3 存储桶时,Jenkins 作业失败

将文件复制到目录时出现FileNotFoundError

使用S3DistCp将文件从S3复制到EMR

将文件从主机复制到容器时出现 Docker COPY 错误

将本地文件复制到k8s容器时出错

将文件从gcs复制到boto3中的s3

AWS China hadoop master-将hdfs文件复制到S3的S3DistCp命令抛出NoClassDefFoundError:com / google / gson / internal / Pair

防止 rclone 将文件重新复制到 AWS S3 Deep Archive

使用过滤器将文件从 S3 增量复制到 EBS 存储

使用NodeJS将文件不完整地复制到Amazon S3