2013-07-31 20 views
5

Próbuję wdrożyć przeszukiwacz z czterema pająkami. Jeden z pająków używa XMLFeedSpider i działa poprawnie z muszli i scrapyd, ale inni używają BaseSpider i wszystkie dają ten błąd podczas uruchamiania w scrapyd, ale działają dobrze z powłokiBłąd inicjowania programu Scrapyd podczas uruchamiania programu szpiegującego pająka

TypeError: init() got an unexpected keyword argument '_job'

Z tego co czytałem to wskazuje na problem z funkcją init w moich pająkach, ale nie mogę rozwiązać problemu. Nie potrzebuję funkcji init i jeśli ją całkowicie usunę, nadal otrzymuję błąd!

My Pająk wygląda to

from scrapy import log 
from scrapy.spider import BaseSpider 
from scrapy.selector import XmlXPathSelector 
from betfeeds_master.items import Odds 
# Parameters 
MYGLOBAL = 39 
class homeSpider(BaseSpider): 
    name = "home" 
    #con = None 

    allowed_domains = ["www.myhome.com"] 
    start_urls = [ 
     "http://www.myhome.com/oddxml.aspx?lang=en&subscriber=mysubscriber", 
    ] 
    def parse(self, response): 

     items = [] 

     traceCompetition = "" 

     xxs = XmlXPathSelector(response) 
     oddsobjects = xxs.select("//OO[OddsType='3W' and Sport='Football']") 
     for oddsobject in oddsobjects: 
      item = Odds() 
      item['competition'] = ''.join(oddsobject.select('Tournament/text()').extract()) 
      if traceCompetition != item['competition']: 
       log.msg('Processing %s' % (item['competition']))    #print item['competition'] 
       traceCompetition = item['competition'] 
      item['matchDate'] = ''.join(oddsobject.select('Date/text()').extract()) 
      item['homeTeam'] = ''.join(oddsobject.select('OddsData/HomeTeam/text()').extract()) 
      item['awayTeam'] = ''.join(oddsobject.select('OddsData/AwayTeam/text()').extract()) 
      item['lastUpdated'] = '' 
      item['bookie'] = MYGLOBAL 
      item['home'] = ''.join(oddsobject.select('OddsData/HomeOdds/text()').extract()) 
      item['draw'] = ''.join(oddsobject.select('OddsData/DrawOdds/text()').extract()) 
      item['away'] = ''.join(oddsobject.select('OddsData/AwayOdds/text()').extract()) 

      items.append(item) 

     return items 

mogę położyć użyć funkcji init w celu pająka, ale mam dokładnie ten sam błąd.

def __init__(self, *args, **kwargs): 
    super(homeSpider, self).__init__(*args, **kwargs) 
    pass 

Dlaczego tak się dzieje i jak mogę to rozwiązać?

+2

Czy zdefiniowałeś metodę "__init__" w innych pająkach? Problemem może być to, że nie akceptujesz '** kwargs' tam .. – alecxe

+0

' XMLFeedSpider' nie zastępuje wiele z 'BaseSpider', więc nie rozumiem dlaczego te pająki wywołują ten błąd. (https://github.com/scrapy/scrapy/blob/master/scrapy/contrib/spiders/feed.py). Czy możesz opublikować bardziej kompletny ślad stosu? –

Odpowiedz

4

Dobrą odpowiedź została udzielona przez alecx:

Moja funkcja startowych było:

def __init__(self, domain_name): 

W celu podjęcia pracy w ciągu jajkiem na scrapyd, powinno być:

def __init__(self, domain_name, **kwargs): 

rozważa przekazałeś nazwę domeny jako obowiązkowy argument

+0

thx! To rozwiązało mój problem. – Pullie