มันขึ้นอยู่กับความถี่ในการอัพเดทเนื้อหาในเว็บคุณครับ ถ้าเว็บคุณมีการอัพเดทบ่อยๆอย่างสม่ำเสมอบอทก็ยิ่งเข้ามาบ่อยครับ
โดยหลักๆแล้ว Googlebot จะมีสองตัว ตัวแรกหรือตัวหลักมีหน้าที่ในการนำทางสำรวจไปยังหน้าเว็บเพจต่างๆวิ่งไปตามลิงค์เก็บ indexes เว็บนั้นๆ
เพื่อเป็นข้อมูลให้ Bot อีกตัว ซึ่งทำหน้าที่ย้อนกลับไปเก็บข้อมูลต่างๆในหน้าเว็บเพจนั้นๆอีกครั้งอย่างอย่างละเอียด รวมถึงตรวจสอบการอัพเดท ปรัปปรุงเนื้อหาใหม่ๆของเว็บ ความถี่ในการอัพเดทต่างๆ เพื่อที่คำนวนว่าควรจะเข้ามาตรวจบ่อยแค่ไหน
โดยหลักการก็ตามคำตอบข้างต้นนะครับ ถ้าเป็นเทคโนโลยี่เก่าเมื่อปีที่แล้ว(ปัจจุบันอาจเปลี่ยนแปลงไปแล้ว) กูเกิ้ลจะใช้ Bot ที่กูเกิ้ลเรียกว่า Deep bot คือจะวิ่งไต่ไปตามลิ้งค์ต่างๆที่มีการ Submitไว้ คือเอามาเก็บไว้ก่อนเพื่อนำข้อมูลมาทำการประเมินผล เพื่อจัดอันดับตามคียฺเวิร์ด ดูว่าเนื้อหาไหนซ้ำกัน เว็บไหนเป็นเว็บจริง เว็บไหนเป็นขยะ ตรงนี้ดูไม่ยากครับ ดูอายุโดเมน ดูวันเวลา Post หรือวันเวลาของเนื้อหาที่เคยได้รับการอินเด็กซ์แรกสุดในฐานข้อมูลของกูเกิ้ล ขบวนการนี้ใช้เวลาในการทำงานประมาณ 1-2เดือน หรืออาจมากกว่านี้
ส่วนที่สองกูเกิ้ลเรียกว่า Fresh bot ตัวนี้กูเกิ้ลใช้วิ่งไปยังเว็บที่ผ่านการประเมินผลจากขั้นตอนแรกว่ามีการอัพเดรพเนื้อหาเป็นระยะ (วันเวลาการ Post แต่ละครั้ง) แค่นี้กูเกิ้ลก็รู้แล้วว่า เว็บไหนมีการ อัพ เดรพเนื้อหาบ่อย (แต่ไม่ถี่จนเข้าขั้นสแปมนะครับ) กูเกิ้ลก็จะส่ง Bot เข้าเก็บข้อมูลเป็นระยะๆครับ
และเท่าที่สังเกตุการทำงานของ Google Robot ในระยะนี้ เท่าที่เจอกับตัวกูเกิ้ลรักและชอบส่ง Fresh bot เข้าไปเก็บที่เว็บที่มีกิจกรรม เช่นมีการ Post การ Comment จากผู้ชม (ไอพีต่างๆกัน)มากกว่าเว็บที่เป็นเนื้อหาเพียวๆ ผมทดสอบจากการใช้ SMF สลับกับการใช้ Wordpress เห็นได้ชัดว่า SMF กูเกิ้ลส่ง Fresh bot มาเป็นระยะครับแม้ว่าข้อมูลที่ SMF เป็นพวกสแปมเข้ามาล้วนๆ ไม่มีเนื้อหาเลย เป็นลิ้งค์ล้วนๆ เลยครับ
ฉะนั้นการ Post บทความ การสร้าง Backlinks ก็ต้องทำให้ดูเป็นธรรมชาตินะครับ อย่าถี่จนเป็นสแปมนะครับ ยิ่งทำอะไรที่ไร้รูปแบบ หรือไม่เป็นแพทเทิร์น อันนั้นแหละครับที่กูเกิ้ลจับยากขึ้นนิดหนึ่ง และโอกาสรอดสูงขึ้นครับ