2012-05-18 5 views
8

Mam problem z wykonywaniem WARUNKOWYCH zapytań w HiveQL. Podstawowa instrukcja select * from tablename działa poprawnie. Błąd jest:Błąd wykonania, kod powrotu 1 z org.apache.hadoop.hive.ql.exec.MapRedTask

Total MapReduce jobs = 1 
Launching Job 1 out of 1 
Number of reduce tasks determined at compile time: 1 
In order to change the average load for a reducer (in bytes): 
    set hive.exec.reducers.bytes.per.reducer=<number> 
In order to limit the maximum number of reducers: 
    set hive.exec.reducers.max=<number> 
In order to set a constant number of reducers: 
    set mapred.reduce.tasks=<number> 
java.net.ConnectException: Call to /0.0.0.0:8021 failed on connection exception: java.net.ConnectException: Connection refused 
     at org.apache.hadoop.ipc.Client.wrapException(Client.java:1134) 
     at org.apache.hadoop.ipc.Client.call(Client.java:1110) 
     at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:226) 
     at org.apache.hadoop.mapred.$Proxy5.getProtocolVersion(Unknown Source) 
     at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:398) 
     at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:384) 
     at org.apache.hadoop.mapred.JobClient.createRPCProxy(JobClient.java:501) 
     at org.apache.hadoop.mapred.JobClient.init(JobClient.java:486) 
     at org.apache.hadoop.mapred.JobClient.<init>(JobClient.java:469) 
     at org.apache.hadoop.hive.ql.exec.ExecDriver.execute(ExecDriver.java:655) 
     at org.apache.hadoop.hive.ql.exec.MapRedTask.execute(MapRedTask.java:123) 
     at org.apache.hadoop.hive.ql.exec.Task.executeTask(Task.java:130) 
     at org.apache.hadoop.hive.ql.exec.TaskRunner.runSequential(TaskRunner.java:57) 
     at org.apache.hadoop.hive.ql.Driver.launchTask(Driver.java:1063) 
     at org.apache.hadoop.hive.ql.Driver.execute(Driver.java:900) 
     at org.apache.hadoop.hive.ql.Driver.run(Driver.java:748) 
     at org.apache.hadoop.hive.cli.CliDriver.processCmd(CliDriver.java:209) 
     at org.apache.hadoop.hive.cli.CliDriver.processLine(CliDriver.java:286) 
     at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:516) 
     at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
     at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39) 
     at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25) 
     at java.lang.reflect.Method.invoke(Method.java:597) 
     at org.apache.hadoop.util.RunJar.main(RunJar.java:186) 
Caused by: java.net.ConnectException: Connection refused 
     at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method) 
     at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:574) 
     at org.apache.hadoop.net.SocketIOWithTimeout.connect(
.... 
Job Submission failed with exception 'java.net.ConnectException(Call to /0.0.0.0:8021 failed on connection exception: java.net.ConnectException: Connection refused)' 
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.MapRedTask 

Próbowałem zarówno z Eclipse IDE i Hive powłoki .Powierzchnia wyjściowa jest taka sama. Proszę pomóż!

+2

Masz teraz rozwiązanie? Ja też mam taki sam problem. – learninghuman

+0

Ta aplikacja internetowa może być pomocna. http://sql.treasuredata.com –

Odpowiedz

3

W większości przypadków ten błąd jest spowodowany przez problem uprawnienia, w którym użytkownik Hive uruchamiając komendę nie ma prawa dostępu do/user/ula

będziemy chcieli, aby sprawdzić konfigurację Hadoop Hive klaster

1

Zauważyłem, że z Hive2 trzeba zmienić sposób określania liczby reduktorów podczas korzystania z HiveQL. Na Hive1 wykorzystali I:

SET mapred.reduce.tasks=1 

Jednak na Hive2 Zauważyłem muszę używać:

SET mapreduce.job.reduces=1 

miałem ten sam komunikat o błędzie i zmienia ten problem został rozwiązany za mną.

6

To powinno rozwiązać Twój problem, ponieważ ta właściwość domyślnie ustawiona jest na true.

set hive.auto.convert.join.noconditionaltask=false 

hive.auto.convert.join.noconditionaltask - Czy Hive umożliwiają optymalizację o konwersji wspólny dołączyć do mapjoin na podstawie rozmiaru pliku wejściowego.

Jeśli paramater jest włączony, a suma wielkości dla n-1 z tabelach/przegródki dla n-drodze przyłączenia jest mniejszy niż określony rozmiar, łączenia bezpośrednio przekształca się w mapjoin (jest bez warunkowego zadania ).

0

Mam obraz szybkiego startu cloudera zamontowany za pomocą VirtualBox. Musiałem wykonać następujące czynności, aby rozwiązać problem: sudo vi /etc/hive/conf/hive-site.xml i ustawić właściwość hive.auto.convert.join na false (musisz wykonać root, aby edytować, a co za tym idzie sudo).

Nie posiadałem właściwości hive.auto.convert.join.noconditionaltask w pliku hive-site.xml.xml.