الوافي
02-05-2021, 07:49 PM
عناكب جوجل google Spider او عناكب
Yahoo! Slurp أو عناكب Alexa أو عناكب
MSN
هي عناكب محركات البحث الشهيرة وظيفتها التغلغل بداخل موقعك
وفهرسة الكلمات الموجودة فيه بحيث يظهر موقعك في نتائج البحث
في هذه المحركات فاذا توفرت فيه الكلمة المطلوبة تقوم محركات
البحث وبواسطة برنامج يسمى العنكبوت spider بتجميع
قوائم بالكلمات الموجودة على الشبكة وتسمى هذه العملية web
crawling
وبذلك فعندما تبحث عن كلمة معينة فأنها تبحث عنها في تلك القوائم
المعدة من قبل العنكبوت
طريقة عمل هذا العنكبوت :
تقوم اولا هذه العناكب spiders بزيارة السيرفرات التي تتمتع
بعدد كبير من الزيارات ( اي التي عليها ضغط كبير) وخاصة المواقع المشهورة
ثم يقوم البرنامج بتفصيل الكلمات وزيارة جميع الوصلات في تلك
المواقع ، وبذلك يكون العنكبوت قد زار اشهر واكبر المواقع وجمع
الوصلات الموجودة بها وقام بتصنيف شامل لجميع الكلمات الموجودة
بها . وهذه الطريقة متبعه من قبل موقع google الشهير
اذا علمنا ان كل عنكبوت يستطيع قراءة 25 صفحة بالثانية
وبحسبة بسيطة ... اذا قمنا بتشغيل 4 عناكب فاننا نحصل على
100 صفحة بالثانية وينتج عن ذلك حوالي 600 كيلو
بايت في الثانية ، وبذلك يمكننا ان نتصور الكم الهائل من المعلومات
التي يتم تجميعه في الثانية الواحدة بالنسبة لموقع مثل
GOOGLE
Yahoo! Slurp أو عناكب Alexa أو عناكب
MSN
هي عناكب محركات البحث الشهيرة وظيفتها التغلغل بداخل موقعك
وفهرسة الكلمات الموجودة فيه بحيث يظهر موقعك في نتائج البحث
في هذه المحركات فاذا توفرت فيه الكلمة المطلوبة تقوم محركات
البحث وبواسطة برنامج يسمى العنكبوت spider بتجميع
قوائم بالكلمات الموجودة على الشبكة وتسمى هذه العملية web
crawling
وبذلك فعندما تبحث عن كلمة معينة فأنها تبحث عنها في تلك القوائم
المعدة من قبل العنكبوت
طريقة عمل هذا العنكبوت :
تقوم اولا هذه العناكب spiders بزيارة السيرفرات التي تتمتع
بعدد كبير من الزيارات ( اي التي عليها ضغط كبير) وخاصة المواقع المشهورة
ثم يقوم البرنامج بتفصيل الكلمات وزيارة جميع الوصلات في تلك
المواقع ، وبذلك يكون العنكبوت قد زار اشهر واكبر المواقع وجمع
الوصلات الموجودة بها وقام بتصنيف شامل لجميع الكلمات الموجودة
بها . وهذه الطريقة متبعه من قبل موقع google الشهير
اذا علمنا ان كل عنكبوت يستطيع قراءة 25 صفحة بالثانية
وبحسبة بسيطة ... اذا قمنا بتشغيل 4 عناكب فاننا نحصل على
100 صفحة بالثانية وينتج عن ذلك حوالي 600 كيلو
بايت في الثانية ، وبذلك يمكننا ان نتصور الكم الهائل من المعلومات
التي يتم تجميعه في الثانية الواحدة بالنسبة لموقع مثل