- Автор темы
- #1
может кто сталкивался с проблемой, есть около 15 урлов фидов. в определенный момент необходимо одновременно и как можно быстрее собрать содержимое этих фидов. Причем кэширование использовать нельзя - это одно из главных условий. У меня в голове есть несколько решений:
1.последовательный curl по всем урл - самый длительный способ, так как перед следующим коннектом необходимо дождатся результатов предыдущего - очеывидно что не риалтайм вовсе.
2.milticurl на все урлы сразу - к сожалению время агрегации сокращаесться только на 60% (проверял) - тоже не риалтайм но приемлемо в некоторых исключительных случаях.
3.fork - к сожалению небыло времени проверить, но исходя из прошлого своего опыта смею предположить, что производительность на уровне multicurl или лучше, но возникает дополнительная потреблность централизированого временного места для сбора результатов отдельных fork'ов, с последующий соединением в общий фид (как это реализивать пока еще не придумал)
помогите советом, что еще я пропустил, может у когото есть какой-то опыт решения подобной проблемой. может быть у вас родились какие-то идеи по прочтению данного топа.
спасибо.
1.последовательный curl по всем урл - самый длительный способ, так как перед следующим коннектом необходимо дождатся результатов предыдущего - очеывидно что не риалтайм вовсе.
2.milticurl на все урлы сразу - к сожалению время агрегации сокращаесться только на 60% (проверял) - тоже не риалтайм но приемлемо в некоторых исключительных случаях.
3.fork - к сожалению небыло времени проверить, но исходя из прошлого своего опыта смею предположить, что производительность на уровне multicurl или лучше, но возникает дополнительная потреблность централизированого временного места для сбора результатов отдельных fork'ов, с последующий соединением в общий фид (как это реализивать пока еще не придумал)
помогите советом, что еще я пропустил, может у когото есть какой-то опыт решения подобной проблемой. может быть у вас родились какие-то идеи по прочтению данного топа.
спасибо.