Теми рефератів
> Реферати > Курсові роботи > Звіти з практики > Курсові проекти > Питання та відповіді > Ессе > Доклади > Учбові матеріали > Контрольні роботи > Методички > Лекції > Твори > Підручники > Статті Контакти
Реферати, твори, дипломи, практика » Новые рефераты » Робота з одновимірними масивами на мові Сі

Реферат Робота з одновимірними масивами на мові Сі





рат, при переміщенні різного роду файлів, між користувачами, що в свою чергу ще далі рухає прогрес у світі, в цілому.



. Google


.1 Визначення Google

- найбільша мережа пошукових систем, що належить корпорації Google inc.

Перша за популярністю система (79,65%), обробляє 41 млрд 345 млн запитів в місяць (частка ринку 62,4%), індексує більше 25 млрд веб-сторінок, може знаходити інформацію на 195 мовах

Підтримує пошук в документах форматів PDF, RTF, PostScript, Microsoft Word, Microsoft Excel, Microsoft PowerPoint та інших. Основною метою пошукової машини, як вважають користувачі, є збір статистичної інформації про користувачів мережі інтернет, їхнє особисте життя, інтересах і т.д.


.2 Історія Google

з'явився в березні 1996 року як науковий проект Ларрі Бейджа і Сергія Бріна, студенти Стенфорда працювали над Стенфордським Проектом Цифрової Бібліотеки (SDLP). SDLP був метою «Розробки перспективних технологій для єдиної, інтегрованої і універсальною цифрової бібліотеки» і фінансувалися за рахунок Національного наукового фонду в числі інших федеральних агентств. У пошуках теми для дисертації, Пейдж розглядав, серед іншого - вивчення математичних властивостей Всесвітньої Мережі, представляючи структуру посилань у вигляді величезного графа. Його науковий керівник - Террі Виноград, рекомендував йому вибрати цю ідею (яку Пейдж пізніше згадував як «найкраща порада, яку я коли-небудь отримував»), і Пейдж зосередився на проблемі з'ясування, які веб-сторінки посилаються на дану сторінку, розглядаючи число і характер таких зворотних посилань з погляду цінності інформації на сторінці (за аналогією з роллю цитат в наукових публікаціях). У цьому науковому проекті, названому «BackRub», до нього скоро приєднався Сергій Брін, аспірант Ph.D. Стенфорда, підтриманий Товариством Випускників Національного наукового фонду. Брін вже був близьким другом Пейджа, з яким він зустрівся в перший раз влітку 1995 в групі першокурсників, яким Брін добровільно запропонував показати університетське містечко. Сторінки інтернету пошуковий робот почав індексувати в березні 1996 року, налаштований з домашньої сторінки Пейджа в Стенфорді. Для перетворення зібраних даних в рівень важливості даної веб-сторінки, Брін і Пейдж розробили алгоритм PageRank. Після аналізу результатів BackRub, які складалися зі списку URL, ранжированного по числу зворотних посилань на даний URL, вони зрозуміли, що пошукова система, заснована на PageRank, призведе до кращих результатів, ніж існуючі алгоритми пошуку (існуючі пошукові системи в цей час оцінювали сторінки по кількості разів, яке шукане слово зустрічалося на сторінці).

Маленька пошукова система по імені «RankDex» від IDD Information Services (філія Доу Джонса) розроблений Робіном Лі, з 1996, вже досліджував подібну стратегію ранжирування сторінки і її рейтингу. Технологія RankDex була запатентована і використовувалася пізніше, коли Лі заснував Baidu в Китаї.


.3 Основні принципи роботи


Якщо відправити в Google пошуковий запит, результати пошуку, Знайдені по всьому Інтернету, з'являються майже миттєво. Як Google знаходить веб-сторінки, відповідні введеному запиту, і визначає порядок розташування результатів пошуку?

Якщо уявити все в максимально спрощеному вигляді, то веб-пошук можна порівняти з переглядом величезної книги, що має дуже довге зміст, в якому детально вказано, де що знаходиться. Коли ви виконуєте пошук Google, програми перевіряють індекс з метою визначити найбільш релевантні результати пошуку, які ви отримуєте.

За надання результатів пошуку відповідають трьох основні процеси:

· Сканування .

· Індексування .

· Надання результатів .

Сканування

Сканування - це процес, в ході якого робот Googlebot виявляє нові та оновлені сторінки для додавання в індекс Google.

Google використовує величезну мережу комп'ютерів, щоб витягти (або «просканувати») зміст мільярдів веб-сторінок. Програма, що виконує сканування, називається роботом Google (або павуком). Робот Googlebot використовує алгоритмічний процес: програми визначають, які сайти потрібно сканувати, як часто це потрібно робити, а також яка кількість сторінок слід вибрати на кожному сайті.

Процес сканування Google починається зі списку URL веб-сторінок, створеного на основі попередніх сеансів сканування. Його доповнюють дані з файлів Sitemap, наданих веб-майстрам...


Назад | сторінка 4 з 5 | Наступна сторінка





Схожі реферати:

  • Реферат на тему: Організація контекстної реклами на прикладі Google AdWords і Google Adsense ...
  • Реферат на тему: Інтернет. Технологія пошуку інформації в системі "Google.ru"
  • Реферат на тему: Пошук в інтернеті: пошукові системи Яндекс і Google
  • Реферат на тему: Кадрова політика корпорації Google
  • Реферат на тему: Робота з документами Google