• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Robot internetowy

    Przeczytaj także...
    Optymalizacja dla wyszukiwarek internetowych (ang. Search engine optimization – SEO; zwana także pozycjonowaniem) – procesy zmierzające do osiągnięcia przez dany serwis internetowy jak najwyższej pozycji w wynikach organicznych wyszukiwarek internetowych dla wybranych słów i fraz kluczowych. Proces pozycjonowania jest elementem szeroko pojętego marketingu internetowego. Pozycjonowanie bazuje na znanych elementach działania algorytmu wyszukiwarek, ciągłym poznawaniu nowych, które algorytmy biorą pod uwagę przy rangowaniu strony oraz na weryfikowaniu już istniejących.Google Inc. NASDAQ: GOOG – amerykańskie przedsiębiorstwo z branży internetowej. Jego flagowym produktem jest wyszukiwarka Google, a deklarowaną misją - skatalogowanie światowych zasobów informacji i uczynienie ich powszechnie dostępnymi i użytecznymi.
    Bot – program wykonujący pewne czynności w zastępstwie człowieka. Czasem jego funkcją jest udawanie ludzkiego zachowania.

    Robot internetowy (lub też Robot indeksujący) – program zbierający informacje o strukturze, stronach i treściach znajdujących się w internecie. Efekty pracy robota mogą być różne, w zależności od jego przeznaczenia, na przykład może on skanować wybrane witryny w celu zbudowania bazy adresów e-mail, natomiast roboty zbierające treści dla wyszukiwarek działają szerzej:

    Googlebot – robot internetowy, używany przez Google. Przechodząc z jednej strony na drugą za pomocą odnośników indeksuje je tym samym tworząc indeks dla wyszukiwarki Google.Oprogramowanie (ang. software) – całość informacji w postaci zestawu instrukcji, zaimplementowanych interfejsów i zintegrowanych danych przeznaczonych dla komputera do realizacji wyznaczonych celów. Celem oprogramowania jest przetwarzanie danych w określonym przez twórcę zakresie. Oprogramowanie to dział informatyki. Oprogramowanie jest synonimem terminów program komputerowy oraz aplikacja, przy czym stosuje się go zazwyczaj do określania większych programów oraz ich zbiorów.
  • badają zawartość witryny,
  • sprawdzają kod strony,
  • zbierają dodatkowe informacje o stronie,
  • monitorują aktualizacje,
  • tworzą mirrory stron.
  • W przypadku robota Google tzn. Googlebota mówi się o robotach wykonujących "Google's fresh crawl" i "Google's deep crawl" lub "Google's main crawl". "Fresh crawl" jest wykonywany często, nawet kilka razy dziennie - robot najprawdopodobniej sprawdza co się zmieniło na stronie, "deep crawl" głębokie indeksowanie najprawdopodobniej polega na pobieraniu większej ilości danych z witryny i odbywa się kilka razy w miesiącu.

    Ruch generowany przez roboty jest jednym z podstawowych wskaźników mówiących o pozycjonowaniu strony.

    Nazwy używane wymiennie[]

  • bot indeksujący
  • pająk, spider
  • pełzacz, web crawler
  • web wanderer
  • Linki zewnętrzne[]

  • The Web Robots FAQ (ang.)
  • Robots Exclusion Opis zasad sterowania robotem na własnej stronie (ang.)
  • The Web Robots Database Lista aktywnych działających robotów sieciowych (ang.)



  • w oparciu o Wikipedię (licencja GFDL, CC-BY-SA 3.0, autorzy, historia, edycja)

    Reklama

    Czas generowania strony: 0.029 sek.