W tej chwili piszę skrypt importu dla bardzo dużego pliku CSV. Problem najczęściej kończy się po pewnym czasie z powodu przekroczenia limitu czasu lub powoduje błąd pamięci.Przetwarzaj bardzo duży plik csv bez limitu czasu i błędu pamięci
My Idea była teraz w stanie przetworzyć plik CSV w krokach "100 linii" i po 100 liniach automatycznie przywołać skrypt. Próbowałem to osiągnąć za pomocą nagłówka (location ...) i przekazać bieżącą linię z get, ale nie wyszło tak jak chcę.
Czy istnieje lepszy sposób na to, czy ktoś ma pomysł, jak pozbyć się błędu pamięci i limitu czasu?
Jak duży jest plik CSV? Musisz zaimportować to do bazy danych? –
sprawdź moją odpowiedź na http://stackoverflow.com/a/22744300/2037323, która obejmuje również niektóre porównania. –