Подскажите, пожалуйста, с помощью каких стандартных компонентов оптимальнее всего выполнить следующую задачу?
Суть: необходимо автоматизировать сбор определённой информации о финансовых учреждениях из сети Интернет (информация публикуется на сайтах: как на официальных, так и на сторонних).
На каких-то сайтах информация доступна сразу, где-то необходимо аутентифицироваться как зарегистрированный пользователь. Где-то информация представлена в виде структурированных таблиц (на html-странице), где-то - необходимо запрашивать инфу по каждому объекту отдельно (вводим наименование объекта в поле ввода и нажимаем кнопку поиска).
В качестве инструментария имею XE5.
Ранее никогда не работал с чтением web-ресурсов. Поэтому сейчас не знаю с какой стороны подступиться к задаче.
Пока (дилетантски?) предполагаю, что необходимо будет коннектиться к web-ресурсу, при необходимости аутентифицироваться. Затем закачивать в строковую переменную всю страницу (в виде html-кода) и парсить её (по индивидуальным критериям, для каждого ресурса).
Собственно, вопросы.
С чего начать? Какими стандартными компонентами их XE5 лучше/уместнее всего пользоваться для подключения к http|https-ресурсам, чтобы прочитать содержимое страницы? Как программно пользоваться родным поиском сайта (грубо говоря, вносить текст в edit-box, "нажимать на кнопку") либо определить, по каким правилам строится запрос, самому генерировать его и передавать странице на исполнение? В общем, будет полезна любая инфа по сабжу.
Суть: необходимо автоматизировать сбор определённой информации о финансовых учреждениях из сети Интернет (информация публикуется на сайтах: как на официальных, так и на сторонних).
На каких-то сайтах информация доступна сразу, где-то необходимо аутентифицироваться как зарегистрированный пользователь. Где-то информация представлена в виде структурированных таблиц (на html-странице), где-то - необходимо запрашивать инфу по каждому объекту отдельно (вводим наименование объекта в поле ввода и нажимаем кнопку поиска).
В качестве инструментария имею XE5.
Ранее никогда не работал с чтением web-ресурсов. Поэтому сейчас не знаю с какой стороны подступиться к задаче.
Пока (дилетантски?) предполагаю, что необходимо будет коннектиться к web-ресурсу, при необходимости аутентифицироваться. Затем закачивать в строковую переменную всю страницу (в виде html-кода) и парсить её (по индивидуальным критериям, для каждого ресурса).
Собственно, вопросы.
С чего начать? Какими стандартными компонентами их XE5 лучше/уместнее всего пользоваться для подключения к http|https-ресурсам, чтобы прочитать содержимое страницы? Как программно пользоваться родным поиском сайта (грубо говоря, вносить текст в edit-box, "нажимать на кнопку") либо определить, по каким правилам строится запрос, самому генерировать его и передавать странице на исполнение? В общем, будет полезна любая инфа по сабжу.