เนื่องจากเว็บโดนบอทโจมตีอย่างหนักและบอทที่โจมตีก็ดันเป็นบอทที่ต้องง้อเค้าเสียด้วย ทิ้งไม่ได้เลยทีเดียว
ตอนนี้เว็บโหลดช้ามาก เหนื่อยใจจริงๆ
ทางโฮสเดิมแนะนำให้สร้างไฟล์ robots.txt
เนื่อหาข้างใน
#######
User-agent: *
Crawl-delay: 5
#######
สิ่งที่ผมอยากจะถามก็คือ
1.ชื่อไฟล์โรบอท จริงๆมันต้องสะกด robots.txt ใช่หรือไม่ (robot.txt นี่จัดว่าผิดใช่ป่าวคับ)
2.User-agent: * Crawl-delay: 5 คือ ถ้าบอทมาพร้อมกัน 10 ตัวมันต้องต่อคิวกัน โดยเว้นระยะคนละ 5 วินาทีใช่หรือไม่ ผมงงกับคำสั่งนี้จังใครช่วยอธิบายให้กระจ่างทีเถิด
ขอบคุณครับ