2015-02-13 19 views
5

Próbuję skopiować pliki z s3 do systemu plików hadoop przy użyciu Pythona. Wystąpił następujący błąd:Błąd podczas kopiowania pliku z s3: // do lokalnego systemu plików (hadoop)

cp: `foo/ds=2015-02-13/ip-d1b-request-2015-02-13_10-00_10-09.txt.gz': No such file or directory 

Niedawno przeprowadziłem migrację najnowszej wersji Mufy (2.4.0). W wersji (0.20) działa dobrze. Dlaczego dostaję ten błąd w wersji 2.4.0?

W Hadoop wersji 0,20

[email protected]:~$ /home/hadoop/bin/hadoop fs -cp s3://test.com/foo/ds=2015-02-13/ip-d1b-request-2015-02-13_10-00_10-09.txt.gz /foo/ds=2015-02-13/ip-d1b-request-2015-02-13_10-00_10-09.txt.gz 

15/02/13 11:21:45 INFO s3native.NativeS3FileSystem: Opening 's3://test.com/foo/ds=2015-02-13/ip-d1b-request-2015-02-13_10-00_10-09.txt.gz' for reading 

Hadoop w wersji 2.4.0

[[email protected] ~]$ /home/hadoop/bin/hadoop fs -cp s3://test.com/foo/ds=2015-02-13/ip-d1b-request-2015-02-13_10-00_10-09.txt.gz /foo/ds=2015-02-13/ip-d1b-request-2015-02-13_10-00_10-09.txt.gz 

15/02/13 11:21:37 INFO guice.EmrFSBaseModule: Consistency disabled, using com.amazon.ws.emr.hadoop.fs.s3n.S3NativeFileSystem as FileSystem implementation. 

15/02/13 11:21:38 INFO fs.EmrFileSystem: Using com.amazon.ws.emr.hadoop.fs.s3n.S3NativeFileSystem as filesystem implementation 

cp: `foo/ds=2015-02-13/ip-d1b-request-2015-02-13_10-00_10-09.txt.gz': No such file or directory 
+0

robisz w EMR lub są u za pomocą pola EC2 skopiować pliki? –

Odpowiedz

0

Znalazłem odpowiedź moje własne.

Using `distcp` instead of `fs -cp`. 

To polecenie działa bez żadnych problemów.

0

Trzeba spróbować w ten sposób. Dodaj "

/home/hadoop/bin/hadoop fs -cp "s3://test.com/foo/ds=2015-02-13/ip-d1b-request-2015-02-13_10-00_10-09.txt.gz" "/foo/ds=2015-02-13/ip-d1b-request-2015-02-13_10-00_10-09.txt.gz"