należy zrobić dokładnie tak, jak @warwaruk wskazane poniżej jest mój przykład opracowanie dla indeksowania pająk:
from scrapy.contrib.spiders import CrawlSpider
from scrapy.http import Request
class MySpider(CrawlSpider):
name = "myspider"
allowed_domains = ["example.com"]
start_urls = [
'http://example.com/foo'
'http://example.com/bar'
'http://example.com/baz'
]
rules = [(...)]
def start_requests(self):
requests = []
for item in start_urls:
requests.append(Request(url=item, headers={'Referer':'http://www.example.com/'}))
return requests
def parse_me(self, response):
(...)
To powinno generować następujące dzienniki w terminalu:
(...)
[myspider] DEBUG: Crawled (200) <GET http://example.com/foo> (referer: http://www.example.com/)
(...)
[myspider] DEBUG: Crawled (200) <GET http://example.com/bar> (referer: http://www.example.com/)
(...)
[myspider] DEBUG: Crawled (200) <GET http://example.com/baz> (referer: http://www.example.com/)
(...)
Działa to samo z BaseSpider. W metodzie start_requests znajduje się metoda BaseSpider, z której wywodzi się CrawlSpider.
Documentation wyjaśnia więcej opcji być określone w specyfikacji Request oprócz nagłówków takich jak: ciasteczka, funkcję oddzwonienia, priorytet wniosek itd