OpenU.Ru
Так уж повелось, что разработчики web-серверов, различных фреймворков, CMS, а также некоторые web-разработчики непосредственно сайтов в последнюю очередь думают о поисковой оптимизации (SEO) сайтов, которые работают на этих технологиях. В первую очередь это касается однозначности идентификации документов на сайте по url-адресам. Часто вебмастера не задумываются, по какому uri и с каким HTTP-кодом отвечает та или иная страница – главное, чтобы сайт корректно отображался, обеспечивал безопасность и был функционален. Например, можно встретить сайты, на которых страница корректно отображается и отдает HTTP-код 200 – «Found» по таким адресам:
И если для человека может показаться, что это один и тот же адрес страницы «somepage», то для робота поисковой системы это всё разные адреса. Одинаковый контент, доступный по разным url, ведёт к созданию «дублей», что негативно сказывается в ранжировании сайта поисковыми системами. У документа должан быть один адрес – например, https://site.com/somepage/. Если же страница доступна также по протоколам http и https, а также на доменах с «www» и без, то количество дублей многократно увеличивается. Да и для людей эта лишняя путаница в адресах ни к чему. Поэтому все дубли с одинаковым контентом должны отдавать http-код 301 с переадресацией (едиректом) на основной url, либо в коде страницы должен быть прописан метатег «canonical» с указанием адреса основной страницы, либо, в крайнем случае, сервер должен возвращать код ответа 404 «Not Found».
О правильной адресации документов на сайте, а также дополнительных технологиях поисковой оптимизации желательно думать на этапе его ранней разработки. Microsoft предоставляет невероятно мощные инструменты для разработки веб-приложений, но «из коробки» малопригодные для поисковой оптимизации. В этом разделе рассматриваются некоторые технические аспекты разработки SEO-ориентированных сайтов, построенных на технологиях ASP.NET.