ยินดีต้อนรับคุณ, บุคคลทั่วไป กรุณา เข้าสู่ระบบ หรือ ลงทะเบียน

เข้าสู่ระบบด้วยชื่อผู้ใช้ รหัสผ่าน และระยะเวลาในเซสชั่น

ThaiSEOBoard.comความรู้ทั่วไปSearch Engine Optimizationปัญหาทำ sitemap ขนาดใหญ่ๆๆๆ
หน้า: [1] 2  ทั้งหมด   ลงล่าง
พิมพ์
ผู้เขียน หัวข้อ: ปัญหาทำ sitemap ขนาดใหญ่ๆๆๆ  (อ่าน 3237 ครั้ง)
0 สมาชิก และ 1 บุคคลทั่วไป กำลังดูหัวข้อนี้
iamnewbies
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 28
ออฟไลน์ ออฟไลน์

กระทู้: 9,635



ดูรายละเอียด
« เมื่อ: 16 ธันวาคม 2006, 15:56:38 »

พอจะมี บริการที่ใหนมั่งอะที่ทำ sitemap ออนไลน์ แบบ unlimtied อะ

ผมจะไปซื้อบริการ ใช้เลยดีกว่า

เนื่องจากว่าผมต้องทำ sitema ประมาณ เว็บละ 1-4 หมื่น URLอะนะ

ทำในเครื่องไม่ใหวครับ

พอจะมีใครเห้ฯบริการแบบ unnlimited online บ้างปะ
บันทึกการเข้า

ุอิอิ  พลุบๆโพล่ๆ  เข้าๆออกๆ เสียวๆ
เทมาเส็ก
หัวหน้าแก๊งเสียว
*

พลังน้ำใจ: 8
ออฟไลน์ ออฟไลน์

กระทู้: 1,001



ดูรายละเอียด เว็บไซต์
« ตอบ #1 เมื่อ: 16 ธันวาคม 2006, 16:12:38 »

คาดว่าจะมีแต่เราต้องรันเองครับ
แต่โฮศคงต้องปิดเราแน่หรืออาจจะไม่ปิดครับ
http://www.xml-sitemaps.com/st...-google-sitemap-generator.html
Current (promotional) price: $14.99
เสี่ยเอกลองดูงับเจ้านี้ดีมาก ๆ ผมใช้อยู่
บันทึกการเข้า

tosakp
หัวหน้าแก๊งเสียว
*

พลังน้ำใจ: 113
ออฟไลน์ ออฟไลน์

กระทู้: 1,960



ดูรายละเอียด
« ตอบ #2 เมื่อ: 16 ธันวาคม 2006, 16:29:39 »

ต้องเขียน scritp run ที่เครื่องเองแล้วล่ะครับ
ไปให้บริการอื่นมันมา get เพื่อทำ site เปลือง Bandwidth อีกต่างหาก

ตามที่ฟ่างว่าเลยครับ เว็บนี้เห็นฝีมือเค้าอยู่ว่าใช้ได้
บันทึกการเข้า

EThaiZone
เจ้าพ่อโลลิค่อน
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 321
ออฟไลน์ ออฟไลน์

กระทู้: 12,516



ดูรายละเอียด
« ตอบ #3 เมื่อ: 16 ธันวาคม 2006, 16:39:02 »

ลองดูไหมครับ
https://www.google.com/webmast...itemap-generator.html#download

บนโฮสรัน python ได้ปะ ??
ถ้าได้ก็น่าลองใช้นะครับ  Cheesy
บันทึกการเข้า

iamnewbies
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 28
ออฟไลน์ ออฟไลน์

กระทู้: 9,635



ดูรายละเอียด
« ตอบ #4 เมื่อ: 16 ธันวาคม 2006, 16:44:19 »

สคริปทั่วไป มันเป็นแบบว่า มันจะ ไปค้นไฟล์ใน server เรา แล้ว เอามารวมทำเป็น URL ครับ ก็จะไ้ด้ sitemap

แ่ต่ที่ผมต้องใช้ และที่ผมต้องการคือ สคริป แบบที่มัน crawl ไปตาม url ครับ แล้วรวม อะคับ

เพราะสคริปปั่นเว็บ ผมไม่มีไฟล์จริงๆ ครับ

มันปั่นมา หมื่น url แต่ไฟล์มันมีแค่ 10 ไฟลืเอง เมื่อเช้าใช้ xenu สแกน ไปแสนกว่า แ้วก็ฉองไปเลย ใช้ gcrwwer มันก็โหลดเครื่อง แถมช้าตะหา

ต้องหาอันที่ ใส่ เว็บไปแล้ว ปิดเครื่อง ปล่อยทำงานได้เลย อะนะ
บันทึกการเข้า

ุอิอิ  พลุบๆโพล่ๆ  เข้าๆออกๆ เสียวๆ
EThaiZone
เจ้าพ่อโลลิค่อน
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 321
ออฟไลน์ ออฟไลน์

กระทู้: 12,516



ดูรายละเอียด
« ตอบ #5 เมื่อ: 16 ธันวาคม 2006, 16:51:40 »

file_get_contents (ใส่ค่าแบบ full url ไปเลย จะได้โค้ดเหมือนเราดูเว็บตัวเอง)
แล้วตามด้วย eregi แยกเอา <a href> ออกมา ให้เหลือแค่ url
ดึงค่ามาทำใส่เป็น temp ก่อน (จะเป็นไฟล์หรือ sql ก็ได้)
แล้วกำหนดความสำคัญของงานด้วย
แล้วเริ่มไล่ซ้ำแบบนี้กับลิงค์ย่อยแล้วบันทึกลงไฟล์ก็น่าจะได้นะครับ

งงปะครับ มันก็ไม่ยากนะครับ
ขึ้นอยู่กับว่าเว็บเราเขียนไว้ดีไหม

ถ้าทำลวกๆ แบบ shout url ก็ลำบากตอน  eregi แยกมันออกมาเนี่ยแหละ
เพราะต้องเอาไปรวมกับลิงค์หลัก  Cheesy

ถ้าแบบเนี้ย crawl ได้อย่างที่ต้องการแน่ๆ
ปล. ระวังเรื่อง timeout ด้วยนะครับ และอย่าลืมใส่ flock ด้วย เดวไฟล์หายหมด  Cheesy  อีกอย่าง memory limit อีกตัว เพราะลิงค์คงเยอะจัด

และทำแบบนี้ก็เปลืองแบนวิทเหมือนให้เขามาดูด แต่ว่าเราทำเองมันก็ฟรีอะน่ะ
แล้วถ้าทำได้ เอาไว้ใช้วันหลังๆได้ด้วย
บันทึกการเข้า

iamnewbies
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 28
ออฟไลน์ ออฟไลน์

กระทู้: 9,635



ดูรายละเอียด
« ตอบ #6 เมื่อ: 16 ธันวาคม 2006, 17:12:11 »

แนะนำเลยครับ

xml-sitemaps.com

ราคา 14 เหรียญ ใช้ได้คับ

เหมาะสำหรับ คนที่ทำเว็บใหญ่เกินกว่า 500 หน้า

เวลาใช้ ต้องเอาไปติดตั้ง ในเว็บนั้น ๆเว็บต่อเว็บนะครัย

บันทึกการเข้า

ุอิอิ  พลุบๆโพล่ๆ  เข้าๆออกๆ เสียวๆ
iamnewbies
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 28
ออฟไลน์ ออฟไลน์

กระทู้: 9,635



ดูรายละเอียด
« ตอบ #7 เมื่อ: 16 ธันวาคม 2006, 17:24:41 »

หะหะ จนได้อะ


บันทึกการเข้า

ุอิอิ  พลุบๆโพล่ๆ  เข้าๆออกๆ เสียวๆ
moneyjr
หัวหน้าแก๊งเสียว
*

พลังน้ำใจ: 46
ออฟไลน์ ออฟไลน์

กระทู้: 1,275



ดูรายละเอียด เว็บไซต์
« ตอบ #8 เมื่อ: 16 ธันวาคม 2006, 19:02:35 »

ถ้าเป็นแบบ ที่ xml-sitemaps $14.99 นี่ มันจะเปลือง b/w โอสเรารึปล่าวครับ
บันทึกการเข้า

iamnewbies
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 28
ออฟไลน์ ออฟไลน์

กระทู้: 9,635



ดูรายละเอียด
« ตอบ #9 เมื่อ: 16 ธันวาคม 2006, 19:07:35 »

เปลืองเหมือนกันมั้ง เพระามันเรีบย URL เว็บเราปกติเลย เวลามันดึงไป โฮสมันก็ต้อง เก็บ log ไว้ และนับการดึงเป็น BW ที่เราใช้เลย อะ
บันทึกการเข้า

ุอิอิ  พลุบๆโพล่ๆ  เข้าๆออกๆ เสียวๆ
moneyjr
หัวหน้าแก๊งเสียว
*

พลังน้ำใจ: 46
ออฟไลน์ ออฟไลน์

กระทู้: 1,275



ดูรายละเอียด เว็บไซต์
« ตอบ #10 เมื่อ: 16 ธันวาคม 2006, 19:13:55 »

แล้ว ตกลง work รึปล่าวครับ
บันทึกการเข้า

7
หัวหน้าแก๊งเสียว
*

พลังน้ำใจ: 16
ออฟไลน์ ออฟไลน์

กระทู้: 1,353



ดูรายละเอียด เว็บไซต์
« ตอบ #11 เมื่อ: 16 ธันวาคม 2006, 19:20:47 »

เวปแบบคุณเอก เขียน xml เองไม่ง่ายกว่าเหรอครับ เป็นผม ผมเขียนเองครับ
บันทึกการเข้า

iamnewbies
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 28
ออฟไลน์ ออฟไลน์

กระทู้: 9,635



ดูรายละเอียด
« ตอบ #12 เมื่อ: 16 ธันวาคม 2006, 19:22:54 »

โปรแแกรมจาก  xml-sitemaps.com


ก็ไม่เวิร์คครับ gen ได้หมื่นกว่าๆ มันก็ไปแล้ว

เพราะว่าใช้ memory ใน server เยอะเกิน 14 เมกด้วย มันก้ไป(เดี้ยง)แล้วอะ
บันทึกการเข้า

ุอิอิ  พลุบๆโพล่ๆ  เข้าๆออกๆ เสียวๆ
iamnewbies
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 28
ออฟไลน์ ออฟไลน์

กระทู้: 9,635



ดูรายละเอียด
« ตอบ #13 เมื่อ: 16 ธันวาคม 2006, 19:23:11 »

อ้างจาก: "7"
เวปแบบคุณเอก เขียน xml เองไม่ง่ายกว่าเหรอครับ เป็นผม ผมเขียนเองครับ


เขียนยังไงอะตับ
บันทึกการเข้า

ุอิอิ  พลุบๆโพล่ๆ  เข้าๆออกๆ เสียวๆ
tosakp
หัวหน้าแก๊งเสียว
*

พลังน้ำใจ: 113
ออฟไลน์ ออฟไลน์

กระทู้: 1,960



ดูรายละเอียด
« ตอบ #14 เมื่อ: 16 ธันวาคม 2006, 20:26:21 »

เว็บคุณเอก ที่เป็นเว็บปั๊มใช่ไหมครับ
มันเก็บเป็น cache ไว้ใช้ไหมครับ ตอนนี้คิดว่าไฟล์ใน Cache มันอยู่ครับ ไม่ expire ใช่ไหมครับ
ถ้าอยู่ครบ ไม่ยากเลย เขียนโปรแกรม List file ทั้งหมดใน cache แล้วเอามาสร้างเป็น xml
เพราะโครงสร้าง URL ของคุณเองง่ายมากคือมันอยู่ที่ Root หมดเลย
เช่น http://www.xxx.com/computer-network.html


อย่างที่บอกถ้าคิดว่า cache อยู่ครบ ก็สบาย ไม่เปลือง bandwidht อีกตะหาก :lol:
บันทึกการเข้า

tosakp
หัวหน้าแก๊งเสียว
*

พลังน้ำใจ: 113
ออฟไลน์ ออฟไลน์

กระทู้: 1,960



ดูรายละเอียด
« ตอบ #15 เมื่อ: 16 ธันวาคม 2006, 20:29:46 »

โปรแกรม crawl sitemap ตัวไหนก็เอา site ของคุณเอกไม่อยู่หรอกครับ
เพราะมันเป็น infinitive link มันจะรันตัวมันแบบพลีชีพ แล้วก็ตายไปในที่สุด
บันทึกการเข้า

tosakp
หัวหน้าแก๊งเสียว
*

พลังน้ำใจ: 113
ออฟไลน์ ออฟไลน์

กระทู้: 1,960



ดูรายละเอียด
« ตอบ #16 เมื่อ: 16 ธันวาคม 2006, 20:31:25 »

หรือไม่ก็ใช้ raw log ให้เป็นประโยชน์

เขียน script สั่ง extract ชื่อไฟล์ออกมา แล้วตรวจ dup แล้วก็สร้าง stiemap
บันทึกการเข้า

iamnewbies
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 28
ออฟไลน์ ออฟไลน์

กระทู้: 9,635



ดูรายละเอียด
« ตอบ #17 เมื่อ: 16 ธันวาคม 2006, 20:36:35 »

ใช่ครับ มันเก็บ cache ไว้ครับ
แต่ว่า cache มันเข้ารหัสไว้ครับ หะหะ

00435c87e590bd276c026d90c4440fc1

แบบนี้ครับ เลยทำไรไม่ได้ หะหะ


อันนี้เวอร์ชั่น 1 อยู่

เวอรืชั่น 2 เป้น รุ่น กระแทก แล้วเสียวครับ
รุ่นนี้ เสียวจริง ไม่หลอก เขียนไฟล์ออกมา จริง เลย คงอีก 1 เดือนข้างหน้า หรือกลัง ปีใหม่โน้นกว่าพัฒนา เสร็จ รุน่นี้มี  sitemap เรียบร้อย เพราะไป list ไฟล์มาใช้ได้เลย แบบเว็บ html ปกติ

แต่รุ่นนี้ เอาปั่นไปก่อน ยังลำบากนิดหนึ่ง
บันทึกการเข้า

ุอิอิ  พลุบๆโพล่ๆ  เข้าๆออกๆ เสียวๆ
iamnewbies
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 28
ออฟไลน์ ออฟไลน์

กระทู้: 9,635



ดูรายละเอียด
« ตอบ #18 เมื่อ: 16 ธันวาคม 2006, 20:38:15 »

อ้างจาก: "tosakp"
โปรแกรม crawl sitemap ตัวไหนก็เอา site ของคุณเอกไม่อยู่หรอกครับ
เพราะมันเป็น infinitive link มันจะรันตัวมันแบบพลีชีพ แล้วก็ตายไปในที่สุด


ใช่แล้วครับ มันปั่นไปเรื่อยๆ  infinity เลย
บันทึกการเข้า

ุอิอิ  พลุบๆโพล่ๆ  เข้าๆออกๆ เสียวๆ
iamnewbies
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 28
ออฟไลน์ ออฟไลน์

กระทู้: 9,635



ดูรายละเอียด
« ตอบ #19 เมื่อ: 16 ธันวาคม 2006, 20:38:35 »

อ้างจาก: "tosakp"
หรือไม่ก็ใช้ raw log ให้เป็นประโยชน์

เขียน script สั่ง extract ชื่อไฟล์ออกมา แล้วตรวจ dup แล้วก็สร้าง stiemap


โอเชครับ น่าจะได้ครับ วิธีนี้
บันทึกการเข้า

ุอิอิ  พลุบๆโพล่ๆ  เข้าๆออกๆ เสียวๆ
หน้า: [1] 2  ทั้งหมด   ขึ้นบน
พิมพ์