Step9
Verified Seller
เจ้าพ่อบอร์ดเสียว
พลังน้ำใจ: 122
ออฟไลน์
กระทู้: 8,518
|
 |
« เมื่อ: 26 ธันวาคม 2008, 15:33:04 » |
|
ปกติถ้า bot Noname มารุมเรามักจะแบนไปเลย แต่ครั้งนี้ชื่อ GoogleBot อ่ะครับ มาเยอะก็ดีแต่มากจนDir ผมโดนDisable Accไป1แล้ว -*- ผมเทียบกับเว็บอื่นๆเฉพาะGoogleBot จะมาไม่เกิน 20MB แต่นี่มากกว่า 250MB+ รู้แต่คำสั่งกั้นBot ใน robots.txt แต่ถ้าจะให้เพลาๆหรือ limit ไว้มีคำสั่งไหมครับ  มีวิธีลด Google Bot ให้ช่วยเพลาๆลงหน่อยไหมครับ -*-
|
|
|
บันทึกการเข้า
|
|
|
|
Step9
Verified Seller
เจ้าพ่อบอร์ดเสียว
พลังน้ำใจ: 122
ออฟไลน์
กระทู้: 8,518
|
 |
« ตอบ #1 เมื่อ: 26 ธันวาคม 2008, 15:53:51 » |
|
Dir อื่น GoogleBotเกือบ 400MB ถ้ามันเกิดจาก Botถล่มจริง เดี๋ยวโดนเด้งอีกซวยเลย มีวิธีให้ Bot เพลาๆไหมครับ เช่นกำหนดว่าตัวนี้มาใช้Banwithไม่ให้เกิน 100 MBอย่างนี้เป็นต้น 
|
|
|
บันทึกการเข้า
|
|
|
|
win
Administrator
เจ้าพ่อบอร์ดเสียว
พลังน้ำใจ: 143
ออฟไลน์
กระทู้: 5,849
|
 |
« ตอบ #2 เมื่อ: 26 ธันวาคม 2008, 15:55:48 » |
|
http://www.google.com/support/...swer.py?hl=en&answer=48620  Changing Google's crawl rate Googlebot has sophisticated algorithms that determine how much to crawl each site. Our goal is to crawl as many pages from your site as we can on each visit without overwhelming your server's bandwidth. You can change the crawl rate (the time used by Googlebot to crawl the site) for sites that are at the root level - for example, www.example.com  and http://subdomain.example.com  . You can't change the crawl rate for sites that are not at the root level - for example, www.example.com/folder  . To change the rate at which we crawl your site: 1. Sign into Google Webmaster Tools with your Google Account. 2. Click the URL for the site you want. 3. Click Settings. 4. In the Crawl rate section, select the option you want. The new crawl rate will be valid for 90 days. ลองดูครับ
|
|
|
บันทึกการเข้า
|
|
|
|
gftframe
สมุนแก๊งเสียว
พลังน้ำใจ: 19
ออฟไลน์
กระทู้: 751
|
 |
« ตอบ #3 เมื่อ: 26 ธันวาคม 2008, 16:02:05 » |
|
อะไรจะขนาดน้าน
|
|
|
บันทึกการเข้า
|
|
|
|
Rock2Rich
สมุนแก๊งเสียว
พลังน้ำใจ: 40
ออฟไลน์
กระทู้: 877
|
 |
« ตอบ #4 เมื่อ: 26 ธันวาคม 2008, 16:06:32 » |
|
Google webmaster tool มีให้ปรับนิครับ ผมเคยแต่ปรับเพิ่ม ปรับลดลงนี่ไม่เคยลองดูนะครับ
|
|
|
บันทึกการเข้า
|
|
|
|
Step9
Verified Seller
เจ้าพ่อบอร์ดเสียว
พลังน้ำใจ: 122
ออฟไลน์
กระทู้: 8,518
|
 |
« ตอบ #5 เมื่อ: 26 ธันวาคม 2008, 16:07:34 » |
|
ขอบคุณครับ  ด้วยเหตุผลทางเทคนิคเลยไม่ได้ทำไว้ แต่แบบนี้ก็ต้องทำละ ไม่ทราบว่าจะจำกัดไว้ที่แค่ไหนดีครับ มาเยอะอ่ะดี แต่รับไม่ไหว ทางHostแนะนำให้ใช้เดดิเคท ไอ๋หย๋า แค่นี้ก็แพงหูฉี่แล้วอ่า 
|
|
« แก้ไขครั้งสุดท้าย: 26 ธันวาคม 2008, 16:09:11 โดย Step9 »
|
บันทึกการเข้า
|
|
|
|
mapandy
Verified Seller
เจ้าพ่อบอร์ดเสียว
พลังน้ำใจ: 345
ออฟไลน์
กระทู้: 6,504
|
 |
« ตอบ #6 เมื่อ: 26 ธันวาคม 2008, 16:29:56 » |
|
หุ ๆ อยากให้มาเด็กดิ๊กก++ เยอะ ๆ แบบนี้มั่งอ่ะ อิ ๆ 
|
|
|
บันทึกการเข้า
|
Honda BRIO เปิดตัวมีนาคม 2011 
|
|
|
Step9
Verified Seller
เจ้าพ่อบอร์ดเสียว
พลังน้ำใจ: 122
ออฟไลน์
กระทู้: 8,518
|
 |
« ตอบ #7 เมื่อ: 26 ธันวาคม 2008, 16:32:40 » |
|
The new crawl rate will be valid for 90 days. นานเกินไปครับท่านGoogle เฮีย เอก iamnewbies แนะนำให้ใช้ User-agent: Googlebot Crawl-delay: 10 http://en.wikipedia.org/wiki/Robots.txt  ก็ไม่ต้องไปสมัครWebmaster Tool สำคัญว่าขอให้เว็บปลดDisableผ่านก่อน Codeนี้จะฟังขึ้นไหมนะ 
|
|
|
บันทึกการเข้า
|
|
|
|
Step9
Verified Seller
เจ้าพ่อบอร์ดเสียว
พลังน้ำใจ: 122
ออฟไลน์
กระทู้: 8,518
|
 |
« ตอบ #8 เมื่อ: 26 ธันวาคม 2008, 16:49:19 » |
|
ไหนๆก็พูดถึง robots.txt แล้ว ผมเจอSEO Forumนอกแห่งหนึ่ง แห่งนี้แหล่ะ http://www.webmaster-talk.com/  ตั้งกั้นพวกBotที่เราอาจไม่รู้จักชื่อไว้เยอะเลย http://www.webmaster-talk.com/robots.txt  User-agent: Fasterfox Disallow: /
User-agent: WebVac Disallow: /
User-agent: Stanford Disallow: /
User-agent: Stanford CompSciClub Disallow: /
User-agent: Stanford CompClub Disallow: /
User-agent: Stanford Phi Sci Data Suck Club Disallow: /
User-agent: Stanford Club Data Suck Disallow: /
User-agent: Stanford F.U. We Don't Do Robots.txt Disallow: /
User-agent: Stanford Club Copyright Sucks Club Disallow: /
User-agent: naver Disallow: /
User-agent: dumbot Disallow: /
User-agent: Hatena Antenna Disallow: /
User-agent: grub-client Disallow: /
User-agent: grub Disallow: /
User-agent: WebZip Disallow: /
User-agent: larbin Disallow: /
User-agent: b2w/0.1 Disallow: /
User-agent: Copernic Disallow: /
User-agent: psbot Disallow: /
User-agent: Python-urllib Disallow: /
User-agent: NetMechanic Disallow: /
User-agent: URL_Spider_Pro Disallow: /
User-agent: CherryPicker Disallow: /
User-agent: EmailCollector Disallow: /
User-agent: EmailSiphon Disallow: /
User-agent: WebBandit Disallow: /
User-agent: EmailWolf Disallow: /
User-agent: ExtractorPro Disallow: /
User-agent: CopyRightCheck Disallow: /
User-agent: Crescent Disallow: /
User-agent: SiteSnagger Disallow: /
User-agent: ProWebWalker Disallow: /
User-agent: CheeseBot Disallow: /
User-agent: LNSpiderguy Disallow: /
User-agent: ia_archiver Disallow: /
|
|
|
บันทึกการเข้า
|
|
|
|
zo501
สมุนแก๊งเสียว
พลังน้ำใจ: 19
ออฟไลน์
กระทู้: 862
|
 |
« ตอบ #9 เมื่อ: 26 ธันวาคม 2008, 17:35:24 » |
|
เหมือนผมตอนโดย cuil ถล่ม ผมก็ใส่ Crawl-delay ก็เริ่มนิ่ง แต่ข้อเสียคือจะ indexed ไม่มากเท่าเหมือนก่อน
|
|
|
บันทึกการเข้า
|
|
|
|
gootum
หัวหน้าแก๊งเสียว
พลังน้ำใจ: 33
ออฟไลน์
กระทู้: 1,698
|
 |
« ตอบ #10 เมื่อ: 26 ธันวาคม 2008, 17:36:13 » |
|
Google webmaster tool setting แล้วเลื่อนให้มันลดลงอีก
ทำแล้วทราฟฟิกของ cpu เครื่องนั้นลดลงครับได้ผล 100%
|
|
|
บันทึกการเข้า
|
|
|
|
Step9
Verified Seller
เจ้าพ่อบอร์ดเสียว
พลังน้ำใจ: 122
ออฟไลน์
กระทู้: 8,518
|
 |
« ตอบ #11 เมื่อ: 26 ธันวาคม 2008, 17:38:03 » |
|
เหมือนผมตอนโดย cuil ถล่ม ผมก็ใส่ Crawl-delay ก็เริ่มนิ่ง แต่ข้อเสียคือจะ indexed ไม่มากเท่าเหมือนก่อน
ไม่ทราบว่าใส่ Crawl-delay เท่าไรครับ 10 - 20 - XX
|
|
|
บันทึกการเข้า
|
|
|
|
Step9
Verified Seller
เจ้าพ่อบอร์ดเสียว
พลังน้ำใจ: 122
ออฟไลน์
กระทู้: 8,518
|
 |
« ตอบ #12 เมื่อ: 26 ธันวาคม 2008, 17:56:00 » |
|
Capมาให้ดูกัน แถบบาที่ว่า นี่เป็นค่าปกติครับ(เว็บอื่นที่ทำไว้) 
|
|
|
บันทึกการเข้า
|
|
|
|
fammoko
คนรักเสียว
พลังน้ำใจ: 2
ออฟไลน์
กระทู้: 177
|
 |
« ตอบ #13 เมื่อ: 26 ธันวาคม 2008, 19:09:47 » |
|
พึงรู้ว่ามันปรับแบบนี้ได้ด้วย
|
|
|
บันทึกการเข้า
|
|
|
|
ColdMoney
เจ้าพ่อบอร์ดเสียว
พลังน้ำใจ: 200
ออฟไลน์
กระทู้: 12,622
|
 |
« ตอบ #14 เมื่อ: 26 ธันวาคม 2008, 21:09:00 » |
|
ก่อนหน้านี้ผมก็เจอครับ ทั้ง bot ทั้ง user ผมแก้โดยเปลี่ยนไปใช้ dedicate ครับ ไม่อยากใช้ delay เดี๋ยวมันงอน 
|
|
|
บันทึกการเข้า
|
|
|
|
pooh20240
Verified Seller
เจ้าพ่อบอร์ดเสียว
พลังน้ำใจ: 245
ออฟไลน์
กระทู้: 3,632
|
 |
« ตอบ #15 เมื่อ: 22 มกราคม 2009, 20:36:44 » |
|
มันงอลได้ด้วยหรอ- -" 
|
|
|
บันทึกการเข้า
|
แหล่งรวมสาว AV 18+ <== BAN USER ถาวร เรียบร้อย
|
|
|
kanokk
หัวหน้าแก๊งเสียว
พลังน้ำใจ: 87
ออฟไลน์
กระทู้: 2,395
|
 |
« ตอบ #16 เมื่อ: 22 มกราคม 2009, 20:58:05 » |
|
มาถามความคืบหน้าว่าได้ผลเป็นงัยมั่ง ของผมนี่ มันเล่นไป 20 วัน เกือบ 2 G เลย
|
|
|
บันทึกการเข้า
|
|
|
|
Hari Seldon
ก๊วนเสียว
พลังน้ำใจ: 16
ออฟไลน์
กระทู้: 258
|
 |
« ตอบ #17 เมื่อ: 22 มกราคม 2009, 21:11:28 » |
|
ผมเพิ่งลองปรับขึ้นไป 10 pages/sec สุดสเกล
ก็เข้าน้อยเท่าเดิมครับ ประมาณ 1.7 pages/sec
แต่มีอยู่คืนนึง มันพรวดขึ้นมา 10.0 pages/sec เลย โหลดพุ่งขึ้นไปประมาณ 2.4
ขนาดเข้ามาตอนทราฟฟิคปกติน้อยสุดนะเนี่ย
|
|
|
บันทึกการเข้า
|
|
|
|
afterdead
หัวหน้าแก๊งเสียว
พลังน้ำใจ: 156
ออฟไลน์
กระทู้: 2,833
|
 |
« ตอบ #18 เมื่อ: 23 มกราคม 2009, 11:52:26 » |
|
แหง้ๆ ถ้ามานเยอะมาก บอกมันมาหาผม ซักตัวฉอง ตัวก็ได้นะครับ ฮาา 
|
|
|
บันทึกการเข้า
|
|
|
|
EThaiZone
เจ้าพ่อโลลิค่อน
เจ้าพ่อบอร์ดเสียว
พลังน้ำใจ: 321
ออฟไลน์
กระทู้: 12,518
|
 |
« ตอบ #19 เมื่อ: 23 มกราคม 2009, 12:08:30 » |
|
สงสัยซัพมิทเว็บมากเกินไป บอทเลยพล่าน  ้ ปล. ผมเป็นหน้าม้าครับ 
|
|
|
บันทึกการเข้า
|
|
|
|
Step9
Verified Seller
เจ้าพ่อบอร์ดเสียว
พลังน้ำใจ: 122
ออฟไลน์
กระทู้: 8,518
|
 |
« ตอบ #20 เมื่อ: 23 มกราคม 2009, 12:29:51 » |
|
สงสัยซัพมิทเว็บมากเกินไป บอทเลยพล่าน  ้ ปล. ผมเป็นหน้าม้าครับ  ล่าสุด ไฟล์มันก็โตมากๆด้วยครับ เห็นเพื่อนว่าเพราะแรมHostไม่พอ จึงต้องสร้างไฟล์มาช่วย อันนี้ผมก็ไม่รู้นะครับ แต่ก็ต้องตามลบไฟล์ดังกล่าว 
|
|
|
บันทึกการเข้า
|
|
|
|
marus
ก๊วนเสียว
พลังน้ำใจ: 41
ออฟไลน์
กระทู้: 467
|
 |
« ตอบ #21 เมื่อ: 23 มกราคม 2009, 12:37:52 » |
|
ไหนๆก็พูดถึง robots.txt แล้ว ผมเจอSEO Forumนอกแห่งหนึ่ง แห่งนี้แหล่ะ http://www.webmaster-talk.com/  ตั้งกั้นพวกBotที่เราอาจไม่รู้จักชื่อไว้เยอะเลย http://www.webmaster-talk.com/robots.txt  User-agent: Fasterfox Disallow: /
User-agent: WebVac Disallow: /
User-agent: Stanford Disallow: /
User-agent: Stanford CompSciClub Disallow: /
User-agent: Stanford CompClub Disallow: /
User-agent: Stanford Phi Sci Data Suck Club Disallow: /
User-agent: Stanford Club Data Suck Disallow: /
User-agent: Stanford F.U. We Don't Do Robots.txt Disallow: /
User-agent: Stanford Club Copyright Sucks Club Disallow: /
User-agent: naver Disallow: /
User-agent: dumbot Disallow: /
User-agent: Hatena Antenna Disallow: /
User-agent: grub-client Disallow: /
User-agent: grub Disallow: /
User-agent: WebZip Disallow: /
User-agent: larbin Disallow: /
User-agent: b2w/0.1 Disallow: /
User-agent: Copernic Disallow: /
User-agent: psbot Disallow: /
User-agent: Python-urllib Disallow: /
User-agent: NetMechanic Disallow: /
User-agent: URL_Spider_Pro Disallow: /
User-agent: CherryPicker Disallow: /
User-agent: EmailCollector Disallow: /
User-agent: EmailSiphon Disallow: /
User-agent: WebBandit Disallow: /
User-agent: EmailWolf Disallow: /
User-agent: ExtractorPro Disallow: /
User-agent: CopyRightCheck Disallow: /
User-agent: Crescent Disallow: /
User-agent: SiteSnagger Disallow: /
User-agent: ProWebWalker Disallow: /
User-agent: CheeseBot Disallow: /
User-agent: LNSpiderguy Disallow: /
User-agent: ia_archiver Disallow: / ขอบคุณมากครับ ถ้าหากเป็นผมจะเปลี่ยนเป็นเช่าเครื่องดีกว่า ผมว่ามันเข้ามาอ่านนะครับแต่มันไม่ index ให้ เพราะถ้ามันจะเข้าจริงๆ มันห้ามไม่ได้หรอก ผมก็เขียนโปรแกรมแนวนี้อยู่แต่ใช้ส่วนตัว ไม่เคยอ่าน robots.txt เลย
|
|
|
บันทึกการเข้า
|
|
|
|
Step9
Verified Seller
เจ้าพ่อบอร์ดเสียว
พลังน้ำใจ: 122
ออฟไลน์
กระทู้: 8,518
|
 |
« ตอบ #22 เมื่อ: 23 มกราคม 2009, 12:40:41 » |
|
ู^ ^ ผมก็ได้ยินมาครับว่า bot หลายตัวมันไม่สน robots.txt มันไปหมด bot google จะฟังrobots ก็ฟังไปคนเดียว marus Confirm!! 
|
|
|
บันทึกการเข้า
|
|
|
|
imodxlstep
เจ้าพ่อบอร์ดเสียว
พลังน้ำใจ: 139
ออฟไลน์
กระทู้: 3,387
|
 |
« ตอบ #23 เมื่อ: 17 มีนาคม 2014, 09:23:46 » |
|
พึ่งโดนมาหยก ๆ ขอบคุณครับ
|
|
|
บันทึกการเข้า
|
|
|
|
|
หน้า: 1 2 [ทั้งหมด] ขึ้นบน |
|