Sziasztok,
Elakadtam egy probléma megoldásában, és mivel sok kutakodás után sem találtam rá megoldást, ezért gondoltam megkérdezlek Titeket, hátha valaki találkozott már hasonlóval.
Adottak kisebb - nagyobb(10-50-100.000) elemű feedek amiket be kell dolgoznom. Ez remekül működik a batch használatával ha a meghívása felhasználói felülethez kötött.
Azonban ezek feldolgozását szeretném automatára megcsinálni, vagyis vagy a cron-hoz kötni(queue használattal) vagy egy scriptel, amit lefuttatok éjszaka.
Na már most, amire jutottam, hogy betch api használatával ez nem megoldható, és erre javasolják a queue-t. Igen ám, de a queue működése némiképp eltér a batch-től, pl. a feldolgozandó adatokat nem futás alatt gyűjtöm be, hanem még azt megelőzően.
Ez nekem azért gond, mert pl. egy nagy .CSV filet úgy dolgozok fel, hogy soronként olvasom a filet, egy egy batch operation kör alatt 100 lemegy, megjegyzem a $context -tel a fileban hol a pointer, majd a köv. nél ott folytatom.
Ezt nem tudom megcsinálni jelen ismereteim szerint a queue segítségével, az pedig, hogy egy pl.60.000 elemű tömböt adjak át feldolgozásra, nem hinném, hogy szeretné.
Így tehát az lenne a kérdésem, hogy milyen megoldást javasolnátok erre?
Köszönöm előre is.
Üdv.:
Gábor