Теми рефератів
> Реферати > Курсові роботи > Звіти з практики > Курсові проекти > Питання та відповіді > Ессе > Доклади > Учбові матеріали > Контрольні роботи > Методички > Лекції > Твори > Підручники > Статті Контакти
Реферати, твори, дипломи, практика » Статьи » Автоматизація роботи SEO-фахівця

Реферат Автоматизація роботи SEO-фахівця





stify"> Не дивлячись на те, що пошукові системи намагаються якомога частіше оновлювати свої бази даних, існує безліч сайтів, які ніколи не потраплять в пошукову видачу, будь то:

· ресурси, доступ до яких захищений паролем;

· Не пов'язані з іншими сайтами ресурси;

· сайти, які являють собою так званий «інформаційний шум»: кинуті, незавершені сайти;


1.2 Історія розвитку пошукової оптимізації


Період з 1997 по 1999 роки можна вважати часом зародження пошукових систем. Нові сайти додавалися в базу даних пошукової машини вручну і сортувалися за спеціальним тематичними каталогами. Програми індексації на той момент були не настільки досконалі і застосовували лише мала кількість низькоефективних алгоритмів ранжирування. У таких умовах недобросовісні оптимізатори користувалися масою різних вивертів і хитрощів, щоб домогтися неправомірно високого рейтингу в очах пошукової машини. Робота по оптимізації внутрішнього змісту сторінок сайту практично не проводилася, а мета-інформація, заголовки, коментарі сторінок, ключові слова і безліч іншої службової інформації було переповнене нерелевантними, але що користувалися популярністю словами. Співробітники пошукових компаній були не в силах встежити за безмірним безліччю сторінок і лише з часом пошукові машини навчилися фільтрувати недобросовісні методи утримувачів сайтів.

Так, до середини 1999 року, пошукові машини вдалися до технологій пошукового серфінгу. Вперше була представлені технології, що дозволяють відслідковувати переходи користувачів за певними пошуковим запитам, а також стало можливим відслідковувати кількість ресурсів, що посилаються на ту чи іншу сторінку в мережі Інтернет. Залишаючись і понині одним з найпопулярніших, даний метод був названий посилальної популярністю.

Після спаму мета-даних багато оптимізаторів звернулися до такого сервісу, як посилальні ферми (англ. link farm). З огляду на те, що пошукова машина оцінює якість і кількість посилань на той чи інший сайт, дані ресурси надавали сайтам велику кількість посилань на необхідні сторінки, створюючи тим самим посилальну мережу. Не дивлячись на заяви, ніби дані ресурси покликані для створення єдиного посилального простору, справжня їх мета була отримати верхні позиції в пошуковій видачі для певний сайтів. Зрештою, пошуковики навчилися об'єктивно оцінювати сайт і з урахуванням цих методів.


Малюнок 6 - Приклад посилальної ферми


На початок 2000-х з'являється велика кількість редагованих вручну каталогів сайтів, видаваних спільнотами редакторів і зібраних з різних тематик. Дані каталоги, утворили досить велику посилальну мережу з великим безліччю якісних ресурсів, які дозволяють домогтися досить релевантних результатів пошуку. З цього моменту починається зміщення фокусу в оптимізації сайтів у бік більш якісної роботи як над його внутрішнім змістом, так і зовнішніми чинниками.

В даний час алгоритми роботи пошукових систем настільки ускладнилися, що вони здатні враховувати багато сотень факторів, що впливають на якість сайту. Якщо в період 1998 - 99 р багато оптимізаторів вдавалися до таких методів, як велика кількість не пов'язаних з темою сайту ключових слів, що підвищувало ймовірність потрапляння на перші сторінки пошукової видачі, то зараз такі маніпуляції неможливі. Багато пошукових систем, у тому числі Google і Yandex, навчилися розпізнавати і припиняти такого роду оптимізацію. Крім іншого, був введений ліміт на довжину читаних мета-тегів і почався їхній аналіз якості і завдяки цьому верхні позиції пошукової видачі стали більш релевантними запитами користувачів. Також свою роль зіграв аналіз чинників, не пов'язаних з контентом сторінки, такі як посилальна популярність.

Слід пам'ятати, займаючись оптимізацією сторінок сайту, що ресурси пошукача обмежені. Пошукова система володіє своїм внутрішнім часом, який відводився на обробку кожної сторінки, межею глибини пошуку по сайту, а також низкою інших обмежень, накладених фактичними апаратно-програмними ресурсами. Також слід пам'ятати, що кожна пошукова машина володіє певним зводом правил, за якими проводиться індексація. Ці правила можуть мати відмінності в різних версіях пошукових алгоритмів, а також у різних пошукових систем. Залежно від поточної версії, пошукова машина проводить індексацію і ранжування сторінок з різними результатами. Але незалежно від версій і самих пошукачів, всі вони прагнуть підвищити якість і різноманітність наданої користувачам інформації. Враховуючи дану їх особливість, потрібно будувати власну діяльність таким чином, щоб підвищити якість як технічної, так і інформаційної боку оптимизируемого сайту.

Один з важливих аспектів, на які слід звернути увагу перед тим, як приступити до оптимізації, - це структу...


Назад | сторінка 5 з 13 | Наступна сторінка





Схожі реферати:

  • Реферат на тему: Ведення різних пошукових робіт із застосуванням пошукових собак
  • Реферат на тему: Експериментальні машини пошукових систем, винайдені в СРСР
  • Реферат на тему: Оцінка і аналіз ефективності роботи інформаційно-пошукових систем
  • Реферат на тему: Пошукові системи та індексація сторінок
  • Реферат на тему: Фактори, що впливають на кількість і якість прибутку. Планування і витрача ...