شاید تمام بار زحمات موتور های جستجو بروی شانه های ربات ها یا همان خزنده ها باشد. قبل از تشریح چگونگی کار این موتور ها، دسته بندی آنها را مشخص میکنیم.
موتور های جستجو گر اصلی، تعداد کمی از آنها وجود دارد و معروف ترین آنها گوگل میباشد. این سایت ها دارای الگوریتم های خاص خود برای دست یابی به بهترین جستجو میباشند. خزنده های خاص خود را دارند و انواع مختلفی از جستجو را شامل میشوند. (اعم از وب،تصویر،ویدئو و…)
اما موتور های جستجوگر تابع در اصل وبسایت های اغلب ساده ای هستند که بر اساس الگوریتم یکی از موتور های جستجوی اصلی کار میکنند. بطور مثال وقتی شما کلمه ای را در این موتور جستجوگر سرچ میکنید، این سایت درخواستی را به سرور های گوگل ارسال میکند و لیست نتایج خود را بر اساس الگوریتم های گوگل مرتب کرده و برای شما به نمایش میگذارد.
اما چگونگی عملکرد این ربات ها بسیار جالب است. ربات ها در تمام اوقات مشغول گشت و گذار داخل اینترنت هستند و صفحات ثبت شده در دایرکتوری خود و دیگر دایرکتوری ها را بررسی میکنند، نوع آنها را دسته بندی کرده و در مرحله آخر با ایجاد یک کش قوی آنها را در حافظه خود ثبت و رتبه بندی میکنند. (این موتور ها معمولا پهنای باند بسیار بالا و حافظه کش قوی دارند.)
در ادامه هم این کار صورت میگیرد و اینطور نیست که ربات ها فقط یک بار به وبسایت شما سربزنند، بلکه تقریبا هر روز از آنها دیدن میکنند و تغییرات را ثبت کرده و در حافظه قرار میدهند.