И как он работает. В гугле толком ничего не нашол, половина инфы на web ресурсах которые мой 5 к/с не грузят. Мб кто может объяснить?
Почти как граббер. Только работают немного по другому.
Граббер берет всю страницу, после уже вырезаешь и заменяешь лишнее.
А с помощью парсера - берешь только то что нужно, при этом контент можно у себя сохранить на хосте.
Но это в моем понимании.
Парсер работает с помощью основных функций:
file_get_contents();
preg_match_all();
preg_match();
ЧЕРНЫЙ БУМЕР, Parser — объектно-ориентированный
скриптовый язык программирования,
созданный для генерации HTML -страниц на
веб-сервере с поддержкой CGI . Разработан
Студией Артемия Лебедева и выпущен под
лицензией, сходной с GNU GPL. Язык
специально спроектирован и оптимизирован
для того, чтобы было удобно создавать
простые сайты. Работа с формами, cookies,
табличными файлами , базами данных и
XML — часть языка, а модульность языка
позволяет легко наращивать
функциональность. Последнее обновление
3.4.3 состоялось 1 ноября 2013 года.
Эта викепедиа , детка
Annet, То есть я смогу файлы с чужого сайта перенести к себе сохранив их на хосте и получится как свой груз?