Обратите внимание, пользователь заблокирован на форуме. Не рекомендуется проводить сделки.
Учитывая современное развитие Интернета, было бы кощунством не написать приложение, взаимодействующее со всемирной паутиной. Сегодня мы напишем простенький html-парсер на Python. Наше приложение будет читать код указанной страницы сайта и сохранять все ссылки в ней в отдельный файл. Это приложение может помочь SEO-аналитикам и веб-разработчикам.
Писать будем на Python 3, в котором есть встроенный класс для html-парсера из модуля html.parser
Так же нам понадобится функция urlopen из модуля urllib
Именно функция urlopen будет получать исходный код указанной странички.
Перегрузка класса HTMLParser
Наша задача таким образом перегрузить функционал существующего класса HTMLParser, чтобы он соответствовал нашей задаче.
Базовый класс HTMLParser имеет несколько методов, нас в данном случае интересуют метод handle_start_tag. Этот метод вызывается каждый раз, когда наш парсер встречает в тексте октрывающий html-тэг.
Напишем вспомогательный метод validate:
Создадим метод, который будет открывать указанную страницу и выдавать ее содержимое.
Осталось добавить возможность записи списка ссылок на диск в читабельном формате:
Все готово, можем запускать парсер.
После того как вы запустите данный скрипт в директории, где находится ваш файл появится текстовый документ links.txt, содержащий ссылки.
Посмотреть вложение 2112
Конечно, данный пример достаточно примитивен, но на его основе вы можете попробовать написать, к примеру, веб-crawler, который будет анализировать весь сайт целиком, а не одну его страницу.
Писать будем на Python 3, в котором есть встроенный класс для html-парсера из модуля html.parser
Код:
from html.parser import HTMLParser
Так же нам понадобится функция urlopen из модуля urllib
Код:
from urllib.request import urlopen
Именно функция urlopen будет получать исходный код указанной странички.
Перегрузка класса HTMLParser
Наша задача таким образом перегрузить функционал существующего класса HTMLParser, чтобы он соответствовал нашей задаче.
Код:
class MyHTMLParser(HTMLParser):
def __init__(self, site_name, *args, **kwargs):
# список ссылок
self.links = []
# имя сайта
self.site_name = site_name
# вызываем __init__ родителя
super().__init__(*args, **kwargs)
# при инициализации "скармливаем" парсеру содержимое страницы
self.feed(self.read_site_content())
# записываем список ссылок в файл
self.write_to_file()
Базовый класс HTMLParser имеет несколько методов, нас в данном случае интересуют метод handle_start_tag. Этот метод вызывается каждый раз, когда наш парсер встречает в тексте октрывающий html-тэг.
Код:
def handle_starttag(self, tag, attrs):
# проверяем является ли тэг тэгом ссылки
if tag == 'a':
# находим аттрибут адреса ссылки
for attr in attrs:
if attr[0] == 'href':
# проверяем эту ссылку методом validate() (мы его еще напишем)
if not self.validate(attr[0]):
# вставляем адрес в список ссылок
self.links.append(attr[1])
Напишем вспомогательный метод validate:
Код:
def validate(self, link):
""" Функция проверяет стоит ли добавлять ссылку в список адресов.
В список адресов стоит добавлять если ссылка:
1) Еще не в списке ссылок
2) Не вызывает javascript-код
3) Не ведет к какой-либо метке. (Не содержит #)
"""
return link in self.links or '#' in link or 'javascript:' in link
Создадим метод, который будет открывать указанную страницу и выдавать ее содержимое.
Код:
def read_site_content(self):
return str(urlopen(self.site_name).read())
Осталось добавить возможность записи списка ссылок на диск в читабельном формате:
Код:
def write_to_file(self):
# открываем файл
f = open('links.txt', 'w')
# записываем отсортированный список ссылок, каждая с новой строки
f.write('\n'.join(sorted(self.links)))
# закрываем файл
f.close()
Все готово, можем запускать парсер.
Код:
parser = MyHTMLParser("http://python.org")
После того как вы запустите данный скрипт в директории, где находится ваш файл появится текстовый документ links.txt, содержащий ссылки.
Посмотреть вложение 2112
Конечно, данный пример достаточно примитивен, но на его основе вы можете попробовать написать, к примеру, веб-crawler, который будет анализировать весь сайт целиком, а не одну его страницу.