ยินดีต้อนรับคุณ, บุคคลทั่วไป กรุณา เข้าสู่ระบบ หรือ ลงทะเบียน

เข้าสู่ระบบด้วยชื่อผู้ใช้ รหัสผ่าน และระยะเวลาในเซสชั่น

ThaiSEOBoard.comความรู้ทั่วไปGooooooooooooogleมีวิธีลด GoogleBot ให้ช่วยเพลาๆลงหน่อยไหมครับ -*-
หน้า: 1 2 [ทั้งหมด]   ลงล่าง
พิมพ์
ผู้เขียน หัวข้อ: มีวิธีลด GoogleBot ให้ช่วยเพลาๆลงหน่อยไหมครับ -*-  (อ่าน 36088 ครั้ง)
0 สมาชิก และ 1 บุคคลทั่วไป กำลังดูหัวข้อนี้
Step9
Verified Seller
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 122
ออฟไลน์ ออฟไลน์

กระทู้: 8,518



ดูรายละเอียด เว็บไซต์
« เมื่อ: 26 ธันวาคม 2008, 15:33:04 »

ปกติถ้า bot Noname มารุมเรามักจะแบนไปเลย
แต่ครั้งนี้ชื่อ GoogleBot อ่ะครับ

มาเยอะก็ดีแต่มากจนDir ผมโดนDisable Accไป1แล้ว -*-
ผมเทียบกับเว็บอื่นๆเฉพาะGoogleBot จะมาไม่เกิน 20MB แต่นี่มากกว่า 250MB+


รู้แต่คำสั่งกั้นBot ใน robots.txt  แต่ถ้าจะให้เพลาๆหรือ limit ไว้มีคำสั่งไหมครับ  Cry

มีวิธีลด Google Bot ให้ช่วยเพลาๆลงหน่อยไหมครับ -*-
บันทึกการเข้า

Step9
Verified Seller
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 122
ออฟไลน์ ออฟไลน์

กระทู้: 8,518



ดูรายละเอียด เว็บไซต์
« ตอบ #1 เมื่อ: 26 ธันวาคม 2008, 15:53:51 »

Dir อื่น GoogleBotเกือบ 400MB ถ้ามันเกิดจาก Botถล่มจริง เดี๋ยวโดนเด้งอีกซวยเลย


มีวิธีให้ Bot เพลาๆไหมครับ เช่นกำหนดว่าตัวนี้มาใช้Banwithไม่ให้เกิน 100 MBอย่างนี้เป็นต้น  Lips Sealed
บันทึกการเข้า

win
Administrator
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 143
ออฟไลน์ ออฟไลน์

กระทู้: 5,849



ดูรายละเอียด
« ตอบ #2 เมื่อ: 26 ธันวาคม 2008, 15:55:48 »

http://www.google.com/support/...swer.py?hl=en&answer=48620


อ้างถึง
Changing Google's crawl rate

Googlebot has sophisticated algorithms that determine how much to crawl each site. Our goal is to crawl as many pages from your site as we can on each visit without overwhelming your server's bandwidth. You can change the crawl rate (the time used by Googlebot to crawl the site) for sites that are at the root level - for example, www.example.com and http://subdomain.example.com . You can't change the crawl rate for sites that are not at the root level - for example, www.example.com/folder .

To change the rate at which we crawl your site:

   1. Sign into Google Webmaster Tools with your Google Account.
   2. Click the URL for the site you want.
   3. Click Settings.
   4. In the Crawl rate section, select the option you want.

The new crawl rate will be valid for 90 days.


ลองดูครับ
บันทึกการเข้า
gftframe
สมุนแก๊งเสียว
*

พลังน้ำใจ: 19
ออฟไลน์ ออฟไลน์

กระทู้: 751



ดูรายละเอียด
« ตอบ #3 เมื่อ: 26 ธันวาคม 2008, 16:02:05 »

อะไรจะขนาดน้าน
บันทึกการเข้า

ขายดีล | ประกันบำนาญ ลดหย่อนภาษี | กรอบรูป | ตอบแบบสอบถามแล้วได้เงิน | คอนโดเด่น |

ขายซิม ทรู 7-11 ไว้สมัครอะไรที่ต้องการได้หมด ราคาพิเศษสุดๆ PM มาได้ครับ
Rock2Rich
สมุนแก๊งเสียว
*

พลังน้ำใจ: 40
ออฟไลน์ ออฟไลน์

กระทู้: 877



ดูรายละเอียด
« ตอบ #4 เมื่อ: 26 ธันวาคม 2008, 16:06:32 »

Google webmaster tool    มีให้ปรับนิครับ  ผมเคยแต่ปรับเพิ่ม
ปรับลดลงนี่ไม่เคยลองดูนะครับ
บันทึกการเข้า

. .
.
.
Step9
Verified Seller
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 122
ออฟไลน์ ออฟไลน์

กระทู้: 8,518



ดูรายละเอียด เว็บไซต์
« ตอบ #5 เมื่อ: 26 ธันวาคม 2008, 16:07:34 »

ขอบคุณครับ  Kiss


ด้วยเหตุผลทางเทคนิคเลยไม่ได้ทำไว้  แต่แบบนี้ก็ต้องทำละ

ไม่ทราบว่าจะจำกัดไว้ที่แค่ไหนดีครับ
มาเยอะอ่ะดี แต่รับไม่ไหว ทางHostแนะนำให้ใช้เดดิเคท

ไอ๋หย๋า แค่นี้ก็แพงหูฉี่แล้วอ่า

 Cry
« แก้ไขครั้งสุดท้าย: 26 ธันวาคม 2008, 16:09:11 โดย Step9 » บันทึกการเข้า

mapandy
Verified Seller
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 345
ออฟไลน์ ออฟไลน์

กระทู้: 6,504



ดูรายละเอียด เว็บไซต์
« ตอบ #6 เมื่อ: 26 ธันวาคม 2008, 16:29:56 »

หุ ๆ อยากให้มาเด็กดิ๊กก++ เยอะ ๆ แบบนี้มั่งอ่ะ อิ ๆ

 Smiley
บันทึกการเข้า

Honda BRIO เปิดตัวมีนาคม 2011
Step9
Verified Seller
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 122
ออฟไลน์ ออฟไลน์

กระทู้: 8,518



ดูรายละเอียด เว็บไซต์
« ตอบ #7 เมื่อ: 26 ธันวาคม 2008, 16:32:40 »

อ้างถึง
The new crawl rate will be valid for 90 days.


นานเกินไปครับท่านGoogle

เฮีย เอก iamnewbies แนะนำให้ใช้
โค๊ด:
User-agent: Googlebot
Crawl-delay: 10
http://en.wikipedia.org/wiki/Robots.txt

ก็ไม่ต้องไปสมัครWebmaster Tool

สำคัญว่าขอให้เว็บปลดDisableผ่านก่อน Codeนี้จะฟังขึ้นไหมนะ  Kiss
บันทึกการเข้า

Step9
Verified Seller
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 122
ออฟไลน์ ออฟไลน์

กระทู้: 8,518



ดูรายละเอียด เว็บไซต์
« ตอบ #8 เมื่อ: 26 ธันวาคม 2008, 16:49:19 »

ไหนๆก็พูดถึง robots.txt แล้ว

ผมเจอSEO Forumนอกแห่งหนึ่ง แห่งนี้แหล่ะ http://www.webmaster-talk.com/
ตั้งกั้นพวกBotที่เราอาจไม่รู้จักชื่อไว้เยอะเลย
http://www.webmaster-talk.com/robots.txt
โค๊ด:
User-agent: Fasterfox
Disallow: /

User-agent: WebVac
Disallow: /

User-agent: Stanford
Disallow: /

User-agent: Stanford CompSciClub
Disallow: /

User-agent: Stanford CompClub
Disallow: /

User-agent: Stanford Phi Sci Data Suck Club
Disallow: /

User-agent: Stanford Club Data Suck
Disallow: /

User-agent: Stanford F.U. We Don't Do Robots.txt
Disallow: /

User-agent: Stanford Club Copyright Sucks Club
Disallow: /

User-agent: naver
Disallow: /

User-agent: dumbot
Disallow: /

User-agent: Hatena Antenna
Disallow: /

User-agent: grub-client
Disallow: /

User-agent: grub
Disallow: /

User-agent: WebZip
Disallow: /

User-agent: larbin
Disallow: /

User-agent: b2w/0.1
Disallow: /

User-agent: Copernic
Disallow: /

User-agent: psbot
Disallow: /

User-agent: Python-urllib
Disallow: /

User-agent: NetMechanic
Disallow: /

User-agent: URL_Spider_Pro
Disallow: /

User-agent: CherryPicker
Disallow: /

User-agent: EmailCollector
Disallow: /

User-agent: EmailSiphon
Disallow: /

User-agent: WebBandit
Disallow: /

User-agent: EmailWolf
Disallow: /

User-agent: ExtractorPro
Disallow: /

User-agent: CopyRightCheck
Disallow: /

User-agent: Crescent
Disallow: /

User-agent: SiteSnagger
Disallow: /

User-agent: ProWebWalker
Disallow: /

User-agent: CheeseBot
Disallow: /

User-agent: LNSpiderguy
Disallow: /

User-agent: ia_archiver
Disallow: /
บันทึกการเข้า

zo501
สมุนแก๊งเสียว
*

พลังน้ำใจ: 19
ออฟไลน์ ออฟไลน์

กระทู้: 862



ดูรายละเอียด เว็บไซต์
« ตอบ #9 เมื่อ: 26 ธันวาคม 2008, 17:35:24 »

เหมือนผมตอนโดย cuil ถล่ม ผมก็ใส่ Crawl-delay ก็เริ่มนิ่ง แต่ข้อเสียคือจะ indexed ไม่มากเท่าเหมือนก่อน
บันทึกการเข้า

gootum
หัวหน้าแก๊งเสียว
*

พลังน้ำใจ: 33
ออฟไลน์ ออฟไลน์

กระทู้: 1,698



ดูรายละเอียด เว็บไซต์
« ตอบ #10 เมื่อ: 26 ธันวาคม 2008, 17:36:13 »

Google webmaster tool
setting แล้วเลื่อนให้มันลดลงอีก


ทำแล้วทราฟฟิกของ cpu เครื่องนั้นลดลงครับได้ผล 100%
บันทึกการเข้า
Step9
Verified Seller
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 122
ออฟไลน์ ออฟไลน์

กระทู้: 8,518



ดูรายละเอียด เว็บไซต์
« ตอบ #11 เมื่อ: 26 ธันวาคม 2008, 17:38:03 »

เหมือนผมตอนโดย cuil ถล่ม ผมก็ใส่ Crawl-delay ก็เริ่มนิ่ง แต่ข้อเสียคือจะ indexed ไม่มากเท่าเหมือนก่อน

ไม่ทราบว่าใส่ Crawl-delay เท่าไรครับ 10 - 20 - XX

บันทึกการเข้า

Step9
Verified Seller
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 122
ออฟไลน์ ออฟไลน์

กระทู้: 8,518



ดูรายละเอียด เว็บไซต์
« ตอบ #12 เมื่อ: 26 ธันวาคม 2008, 17:56:00 »

Capมาให้ดูกัน แถบบาที่ว่า นี่เป็นค่าปกติครับ(เว็บอื่นที่ทำไว้)
บันทึกการเข้า

fammoko
คนรักเสียว
*

พลังน้ำใจ: 2
ออฟไลน์ ออฟไลน์

กระทู้: 177



ดูรายละเอียด
« ตอบ #13 เมื่อ: 26 ธันวาคม 2008, 19:09:47 »

พึงรู้ว่ามันปรับแบบนี้ได้ด้วย
บันทึกการเข้า
ColdMoney
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 200
ออฟไลน์ ออฟไลน์

กระทู้: 12,622



ดูรายละเอียด เว็บไซต์
« ตอบ #14 เมื่อ: 26 ธันวาคม 2008, 21:09:00 »

ก่อนหน้านี้ผมก็เจอครับ ทั้ง bot ทั้ง user  ผมแก้โดยเปลี่ยนไปใช้ dedicate ครับ ไม่อยากใช้ delay เดี๋ยวมันงอน Smiley
บันทึกการเข้า

pooh20240
Verified Seller
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 245
ออฟไลน์ ออฟไลน์

กระทู้: 3,632



ดูรายละเอียด เว็บไซต์
« ตอบ #15 เมื่อ: 22 มกราคม 2009, 20:36:44 »

มันงอลได้ด้วยหรอ- -"
 Shocked
บันทึกการเข้า

แหล่งรวมสาว AV 18+ <== BAN USER ถาวร เรียบร้อย
kanokk
หัวหน้าแก๊งเสียว
*

พลังน้ำใจ: 87
ออฟไลน์ ออฟไลน์

กระทู้: 2,395



ดูรายละเอียด เว็บไซต์
« ตอบ #16 เมื่อ: 22 มกราคม 2009, 20:58:05 »

มาถามความคืบหน้าว่าได้ผลเป็นงัยมั่ง
ของผมนี่ มันเล่นไป 20 วัน เกือบ 2 G เลย
บันทึกการเข้า

Hari Seldon
ก๊วนเสียว
*

พลังน้ำใจ: 16
ออฟไลน์ ออฟไลน์

กระทู้: 258



ดูรายละเอียด
« ตอบ #17 เมื่อ: 22 มกราคม 2009, 21:11:28 »

ผมเพิ่งลองปรับขึ้นไป 10 pages/sec สุดสเกล

ก็เข้าน้อยเท่าเดิมครับ ประมาณ 1.7 pages/sec

แต่มีอยู่คืนนึง มันพรวดขึ้นมา 10.0 pages/sec เลย
โหลดพุ่งขึ้นไปประมาณ 2.4

ขนาดเข้ามาตอนทราฟฟิคปกติน้อยสุดนะเนี่ย

บันทึกการเข้า
afterdead
หัวหน้าแก๊งเสียว
*

พลังน้ำใจ: 156
ออฟไลน์ ออฟไลน์

กระทู้: 2,833



ดูรายละเอียด เว็บไซต์
« ตอบ #18 เมื่อ: 23 มกราคม 2009, 11:52:26 »

แหง้ๆ ถ้ามานเยอะมาก บอกมันมาหาผม ซักตัวฉอง ตัวก็ได้นะครับ ฮาา   Grin
บันทึกการเข้า

EThaiZone
เจ้าพ่อโลลิค่อน
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 321
ออฟไลน์ ออฟไลน์

กระทู้: 12,518



ดูรายละเอียด เว็บไซต์
« ตอบ #19 เมื่อ: 23 มกราคม 2009, 12:08:30 »

สงสัยซัพมิทเว็บมากเกินไป บอทเลยพล่าน  Cheesy

ปล. ผมเป็นหน้าม้าครับ  Cheesy
บันทึกการเข้า

Step9
Verified Seller
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 122
ออฟไลน์ ออฟไลน์

กระทู้: 8,518



ดูรายละเอียด เว็บไซต์
« ตอบ #20 เมื่อ: 23 มกราคม 2009, 12:29:51 »

สงสัยซัพมิทเว็บมากเกินไป บอทเลยพล่าน  Cheesy

ปล. ผมเป็นหน้าม้าครับ  Cheesy

ล่าสุด ไฟล์มันก็โตมากๆด้วยครับ เห็นเพื่อนว่าเพราะแรมHostไม่พอ จึงต้องสร้างไฟล์มาช่วย
อันนี้ผมก็ไม่รู้นะครับ แต่ก็ต้องตามลบไฟล์ดังกล่าว Tongue
บันทึกการเข้า

marus
ก๊วนเสียว
*

พลังน้ำใจ: 41
ออฟไลน์ ออฟไลน์

กระทู้: 467



ดูรายละเอียด
« ตอบ #21 เมื่อ: 23 มกราคม 2009, 12:37:52 »

ไหนๆก็พูดถึง robots.txt แล้ว

ผมเจอSEO Forumนอกแห่งหนึ่ง แห่งนี้แหล่ะ http://www.webmaster-talk.com/
ตั้งกั้นพวกBotที่เราอาจไม่รู้จักชื่อไว้เยอะเลย
http://www.webmaster-talk.com/robots.txt
โค๊ด:
User-agent: Fasterfox
Disallow: /

User-agent: WebVac
Disallow: /

User-agent: Stanford
Disallow: /

User-agent: Stanford CompSciClub
Disallow: /

User-agent: Stanford CompClub
Disallow: /

User-agent: Stanford Phi Sci Data Suck Club
Disallow: /

User-agent: Stanford Club Data Suck
Disallow: /

User-agent: Stanford F.U. We Don't Do Robots.txt
Disallow: /

User-agent: Stanford Club Copyright Sucks Club
Disallow: /

User-agent: naver
Disallow: /

User-agent: dumbot
Disallow: /

User-agent: Hatena Antenna
Disallow: /

User-agent: grub-client
Disallow: /

User-agent: grub
Disallow: /

User-agent: WebZip
Disallow: /

User-agent: larbin
Disallow: /

User-agent: b2w/0.1
Disallow: /

User-agent: Copernic
Disallow: /

User-agent: psbot
Disallow: /

User-agent: Python-urllib
Disallow: /

User-agent: NetMechanic
Disallow: /

User-agent: URL_Spider_Pro
Disallow: /

User-agent: CherryPicker
Disallow: /

User-agent: EmailCollector
Disallow: /

User-agent: EmailSiphon
Disallow: /

User-agent: WebBandit
Disallow: /

User-agent: EmailWolf
Disallow: /

User-agent: ExtractorPro
Disallow: /

User-agent: CopyRightCheck
Disallow: /

User-agent: Crescent
Disallow: /

User-agent: SiteSnagger
Disallow: /

User-agent: ProWebWalker
Disallow: /

User-agent: CheeseBot
Disallow: /

User-agent: LNSpiderguy
Disallow: /

User-agent: ia_archiver
Disallow: /


ขอบคุณมากครับ ถ้าหากเป็นผมจะเปลี่ยนเป็นเช่าเครื่องดีกว่า ผมว่ามันเข้ามาอ่านนะครับแต่มันไม่ index ให้ เพราะถ้ามันจะเข้าจริงๆ มันห้ามไม่ได้หรอก
ผมก็เขียนโปรแกรมแนวนี้อยู่แต่ใช้ส่วนตัว ไม่เคยอ่าน robots.txt เลย
บันทึกการเข้า
Step9
Verified Seller
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 122
ออฟไลน์ ออฟไลน์

กระทู้: 8,518



ดูรายละเอียด เว็บไซต์
« ตอบ #22 เมื่อ: 23 มกราคม 2009, 12:40:41 »

ู^
^
ผมก็ได้ยินมาครับว่า bot หลายตัวมันไม่สน robots.txt มันไปหมด
bot google จะฟังrobots ก็ฟังไปคนเดียว

marus Confirm!!  Shocked
บันทึกการเข้า

imodxlstep
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 139
ออฟไลน์ ออฟไลน์

กระทู้: 3,387



ดูรายละเอียด เว็บไซต์
« ตอบ #23 เมื่อ: 17 มีนาคม 2014, 09:23:46 »

พึ่งโดนมาหยก ๆ ขอบคุณครับ
บันทึกการเข้า

ขายรูปออนไลน์ทั่วโลกกับเว็บไซต์ Shutterstock.com

อยากรวย ไปหาหนังสือนี้มาอ่านนะครัช

เป็นแค่คน ๆ หนึ่ง ซึ่งรักกล้วยไม้  สนใจในกล้วยไม้ เพราะกล้วยไม้เป็นสิ่งที่ธรรมชาติ บรรจงสร้างสรรขึ้นมาเพื่อให้โลกสวยงาม ตื่นเช้ามาก็รดน้ำกล้วยไม้ ใส่ปุ๋ยกล้วยไม้ ผมรักกล้วยไม้...เว็บไซต์กล้วยไม้ TJorchid.com วิธีจ่ายเงินซื้อของ Lazada
หน้า: 1 2 [ทั้งหมด]   ขึ้นบน
พิมพ์