ยินดีต้อนรับคุณ, บุคคลทั่วไป กรุณา เข้าสู่ระบบ หรือ ลงทะเบียน

เข้าสู่ระบบด้วยชื่อผู้ใช้ รหัสผ่าน และระยะเวลาในเซสชั่น

ThaiSEOBoard.comความรู้ทั่วไปSearch Engine OptimizationRankBrain & Neural Matching อัลกอริทึมต่างกันอย่างไร และมีผลกับ SEO อย่างไร?
หน้า: [1]   ลงล่าง
พิมพ์
ผู้เขียน หัวข้อ: RankBrain & Neural Matching อัลกอริทึมต่างกันอย่างไร และมีผลกับ SEO อย่างไร?  (อ่าน 1093 ครั้ง)
0 สมาชิก และ 1 บุคคลทั่วไป กำลังดูหัวข้อนี้
stjames
หัวหน้าแก๊งเสียว
*

พลังน้ำใจ: 105
ออฟไลน์ ออฟไลน์

กระทู้: 1,178



ดูรายละเอียด
« เมื่อ: 26 มีนาคม 2019, 20:34:57 »


เมื่อเร็วๆ นี้พวกเราน่าจะเคยได้ยินชื่ออัลกอริทึมที่ชื่อ “Google’s Neural Matching” มากขึ้น แต่ความเป็นจริงแล้วก็คือเราไม่ค่อยรู้จักมันมากซักเท่าไรเกี่ยวกับอัลกอริทึมนี้ในการค้นหา ว่ามันมีวิธีคิดประมวลผลอย่างไร ซึ่งทาง Google เองก็ได้ตอบคำถามผ่านโพสต์บน Twitter เพื่อพยายามชี้แจงว่า Google’s Neural Matching แตกต่างจาก RankBrain อย่างไรบ้าง

Google’s Neural Matching คืออะไร Google ได้อธิบายไว้งี้ “Neural Matching นั้นเป็นระบบที่ใช้ AI ที่ Google เริ่มประกาศใช้ในปี 2018 เพื่อเป็นหลักให้ทำความเข้าใจว่าคำต่างๆ เกี่ยวข้องกับแนวคิดในการค้นหาอย่างไร” ซึ่งมันก็หมือนกับคำพ้องความหมาย คำพ้องความหมายเป็นคำที่เกี่ยวข้องที่ใกล้เคียงกันกับคำอื่นๆ นั่นคือการค้นหาที่ผู้คนมักจะค้นหาคำที่แตกต่างมากกว่าข้อมูลวิธีแก้ปัญหา โดยมันจะช่วยเชื่อมโยงคำกับการค้นหาได้ดีขึ้น ยกตัวอย่างก็คือ “ทำไมทีวีของฉันดูผิดปกติ” มันก็จะเสนอคำอีกแบบที่เกี่ยวข้องคือ “เอฟเฟกต์ในละครทีวี” เป็นต้น


ส่วน RankBrain คืออะไร มันไม่เหมือนกันเหรอ ทั้งที่เป็น AI เหมือนกัน?
RankBrain คือเทคโนโลยี AI ถูกปล่อยออกมาในปี 2015 ถูกนำมาใช้ในการช่วยจัดอันดับผลการค้นหา และจัดอันดับหน้าเว็บไซต์สำหรับคำค้นหาที่แปลกใหม่ เพื่อตอบสนองต่อข้อความค้นหาให้แก่ผู้ใช้งานโดยมุ่งเน้นในเรื่องของคำค้นหาที่ Google ไม่เคยพบเจอมาก่อนที่เกิดขึ้นในแต่ละวัน

ดังนั้นความแตกต่างระหว่าง Google’s Neural Matching และ RankBrain คืออะไร?
– RankBrain จะช่วยให้ Google เชื่อมโยงหน้าเว็บกับแนวคิดได้ดีขึ้น
– Neural Matching ช่วยให้ Google เชื่อมโยงคำกับการค้นหาได้ดีขึ้น

จากที่กล่าวมาทั้งหมดดูเหมือนว่านักการตลาดอาจมีความกังวลเกี่ยวกับการทำ SEO เพราะไม่แน่ใจว่ามันจะมีผลกระทบมากน้อยแค่ไหนกับการเปลี่ยนแปลงอันดับของพวกเขา อย่างไรก็ตาม Google ก็ต้องฉลาดขึ้นเรื่อยๆ เพื่อให้ผู้ใช้นั้นได้รับผลการค้นหาที่ดีมีคุณภาพ และเป็นธรรมชาติที่สุดบนเว็บไซต์ของคุณ



ที่มา: http://www.atimedesign.com/web...n/neuralmatching-vs-rankbrain/
« แก้ไขครั้งสุดท้าย: 29 มีนาคม 2019, 20:49:20 โดย stjames » บันทึกการเข้า

ผมไปซื้อกล้วยแขกที่ตลาดนัด
แม่ค้าถามว่า "พี่เอามันมั้ยคะ" 
จะตอบยังไงดี...

อ่านบทความจาก atimeNews อัพเดททุกวัน  + backlink สักเล็กน้อย ~♩ ♪ รับทำเว็บไซต์
Twenty-One
Verified Seller
เจ้าพ่อบอร์ดเสียว
*

พลังน้ำใจ: 335
ออฟไลน์ ออฟไลน์

กระทู้: 11,751



ดูรายละเอียด เว็บไซต์
« ตอบ #1 เมื่อ: 26 มีนาคม 2019, 20:47:33 »

เดี๋ยวนี้ google พัฒนาไปไกลละ
บันทึกการเข้า

# บริการโฮสติ้งขั้นเทพ 24/7 เปิดให้บริการ web hosting มาแล้ว 14 ปี ลูกค้ากว่า 40,000 ราย ให้ความไว้วางใจ
# hosting คุณภาพสูง ดูแลระบบโดย system engineer ประสบการณ์สูง
# host เร็ง แรง ไม่มีล่ม ติดตั้ง cms ฟรี
# vps ราคาถูก 50GB 999 บาท

stjames
หัวหน้าแก๊งเสียว
*

พลังน้ำใจ: 105
ออฟไลน์ ออฟไลน์

กระทู้: 1,178



ดูรายละเอียด
« ตอบ #2 เมื่อ: 29 มีนาคม 2019, 23:52:09 »

Neural Matching ไม่น่าจะธรรมดา คงต้องมีอะไรให้คิดเพิ่มอีกเยอะนะผมว่า ถ้าให้เดานะ อย่างค้นหาคำว่า "ต้องการรองเท้าวิ่งสบายเท้า" มันอาจจะเอาเนื้อหาเกี่ยวกับ "วิ่งแล้วปวดเท้าเพราะรองเท้าไม่ดี" อันนี้แย่เลยนะ เพราะต้องเขียนคีเวิร์ดดักกันอีกเยอะ
« แก้ไขครั้งสุดท้าย: 29 มีนาคม 2019, 23:53:46 โดย stjames » บันทึกการเข้า

ผมไปซื้อกล้วยแขกที่ตลาดนัด
แม่ค้าถามว่า "พี่เอามันมั้ยคะ" 
จะตอบยังไงดี...

อ่านบทความจาก atimeNews อัพเดททุกวัน  + backlink สักเล็กน้อย ~♩ ♪ รับทำเว็บไซต์
ดาวโลก
คนรักเสียว
*

พลังน้ำใจ: 22
ออฟไลน์ ออฟไลน์

กระทู้: 112



ดูรายละเอียด
« ตอบ #3 เมื่อ: 30 มีนาคม 2019, 12:24:02 »

Neural Matching ไม่น่าจะธรรมดา คงต้องมีอะไรให้คิดเพิ่มอีกเยอะนะผมว่า ถ้าให้เดานะ อย่างค้นหาคำว่า "ต้องการรองเท้าวิ่งสบายเท้า" มันอาจจะเอาเนื้อหาเกี่ยวกับ "วิ่งแล้วปวดเท้าเพราะรองเท้าไม่ดี" อันนี้แย่เลยนะ เพราะต้องเขียนคีเวิร์ดดักกันอีกเยอะ


AI ทั้งสองตัวนี้ต่อยอดมาจาก Deepmind ครับ เป็นบริษัทอังกฤษที่กูเกิลซื้อไว้ เข้าไปดูผลงานในยูทูปได้ครับ
ช่องยูปทูปชื่อ Deepmind ปัจจุบันจะสร้างอัลกอลิทึ่ม AI แข่งกับเกมส์ ที่สำเร็จไปแล้วก็เกมส์โกะ ตอนนี้ในช่องยูทูปก็โชว์
ผลงาน Ai เล่นเกมส์ dota2 แข่งกับทีมมนุษย์ การแข่งความฉลาดกับมนุษย์ได้ ก็เหมือน Google แข่งกับ
ความฉลาดในความคิดของมนุษย์ ยิ่ง AI มันฉลาดกว่า กูเกิลก็จับความฉลาดมาเพิ่มใน AI การค้นหา มีหลายคนแปลกใจ
ว่าทำไมเขาถึงเน้นสร้าง ai แข่งเกมส์กับคน เพราะเขาต้องการให้ ai ไปดูดซับความฉลาดหรืออัลกอลิทึ่มจากคนเก่งๆ มา

Stadia หรือ การเล่นเกมส์สตีมมิ่งบนยูทูปนั่น คือ ai พวกนี้จะคอยดูดความฉลาดจากพวกอัลกอลิทึ่มในสมองดีมาต่อยอด
เรียกว่า สร้าง ai ขึ้นมากินหลายต่อ กินได้ทุกแนวรบ ทั้งเสิร์จ ทั้งรู้ใจคน ทั้งฉลาดกว่าคน อนาคตก็คือมันฉลาดมากกว่าคน
ทั่วไปแน่นอนเดาทางถูกหมด ใครฉลาดกว่า ai มันก็จะยอมตกเป็นเครื่องมือรับใช้ที่แสนเชื่องเพื่อเรียนรู้จากคนเก่ง


Deepmind ได้แนวคิดมาจาก อลัน ทัวริ่ง คนที่คิดค้นสร้างเครื่องจักรถอดรหัส เครื่อง อีนิกม่า ของนาซีในสงครามโลกครั้งที่สองนั่นละ
จนได้รับฉายาว่า เป็นบิดาแห่งยุคข้อมูลข่าวสาร หรือ ผู้คิดค้นอัลกอลิที่ม

อลัน ทัวริ่ง คิดว่า จะต้องไม่มานั่งถอดรหัสอยู่ทุกวันหรือทุกครั้ง ที่ทางนาซีเปลี่ยนฮาร์ดแวร์ เปลี่ยนชุดคำสั่งใหม่
ด้วยการใส่สมองให้กับเครื่องจักรไว้เลย เรียกว่า สื่อสารกันรูปแบบเก่า รูปแบบใหม่ รูปแบบอนาคต เงื่อนไขสำคัญของ
นาซีคือข้อความที่ส่งนั้นจะมีอายุแค่เพียง 1 วันส่งวันละหลายพันหลายหมื่นข้อความ คนเป็นล้านมานั่งถอดรหัสก็ไม่หมด

ยังไงก็ไม่หมด แต่เครื่องจักรของ อลัน ทัวริ่ง ทำงานได้เร็วมากและถูกต้องเสมอ นั่นคือ เขาเลียนแบบการทำงานของสมองมนุษย์
อย่างแรก ก็คือ สร้างฮาร์ดแวร์(คอมพิวเตอร์) อย่างที่สองก็คือซอฟต์แวร์(มีโอเอส และ แอปต่าง) โหลด(เก็บ)ไว้ในหน่วยความจำก่อน
ทั้งหมดนี้เรียกว่า สมองของเครื่องจักร อลัน ทัวริ่ง หากนาซีเปลี่ยนเครื่องมือสื่อสารใหม่ อังกฤษก็สร้างแอปใหม่เพิ่มเติม(สมัยนั้นเรียกว่า
อัลกอลิทึ่มหรือสูตรทางคณิตศาสตร์) แล้วใส่เพิ่มลงไปในหน่วยความจำของเครื่อง หากเป็นคนถอดรหัสก็ต้องมาคิดมานั่งคำนวณกันใหม่อีกนาก

นั่นคือ เปรียบเทียบให้เห็นภาพ เครื่องจักร อลัน ทัวริ่ง กับคอมพิวเตอร์ในยุคปัจจุบันเหมือนกันคือ ต้องมีฮาร์ดแวร์ประสิทธิภาพสูง บ้านเรา
เรียกสเปคสูง แล้วก็ลงวินโดว์ไว้ สมมุติว่านาซีใช้โปรแกรม Word เข้ารหัส เราก็แค่ลง Word ไป ถ้านาซีใช้โปรแกรม photoshop เข้ารหัส
ก็เพียงแค่ใส่ photoshop เพิ่มไป หากมีรูปแบบการเข้ารหัสเป็นร้อยล้านรูปแบบ ก็ลงโปรแกรมถอดรหัสร้อยล้านแบบไปในหน่วยความจำ
ไม่จำเป็นจะต้องมาสร้างเครื่องจักรใหม่อีก
หรือต้องคอยให้คนมานั่งถอดรหัสใหม่อยู่ตลอดเวลา เครื่องทำงานได้เร็ว ทำซ้ำได้ง่าย แม่นยำมาก และถอดระหัสได้ทั้งวันทั้งคืน จนนาซีพ่ายแพ้ไปในที่สุด

บริษัท DeepMind ก็พัฒนาบนหลักการของ อลัน ทัวริ่ง เพิ่มขึ้นคือ นอกจากใส่ความรู้ในสมองคอมพิวเตอร์ให้มากขึ้น เปรียบเทียบได้คือ
ลงโปรแกรมให้วินโดว์ไปสักแสนโปรแกรม(คอมพิวเตอร์ในจินตนาการ) ทาง DeepMind ก็สั่งให้คอมพิวเตอร์นี้เอาองค์ความรู้จากหลายแสน
โปรแกรมที่คนใช้งานนี้มาคาดการณ์อนาคตว่า มนุษย์หรือคนนี้อยากได้โปรแกรมแนวไหน หน้าตาเป็นอย่างไร มีฟีดเจอร์อะไรบ้าง โดยดึงเอา
ความรู้จากการใช้งานของคนมาเป็นฐานความรู้เพื่อต่อยอดว่า โปรแกรมในอนาคตสำหรับคนนี้คืออะไร ทุกวันนี้ก็เรียก AI นั่นละ และ Deepmind
ก็ทำไม่ต่างจากบริษัทอื่นๆ ทำด้วย

แต่ DeepMind ต่างจาก AI ธรรมดา ก็คือ เขาใช้หลักการของ Deep Learning เข้ามาช่วย เพื่อให้การคาดการณ์ในอนาคตแม่นยำมากยิ่งขึ้น
นั่นคือ โปรแกรมใหม่ที่คอมพิวเตอร์สร้างมาให้คนนั่น มันจะต้องรู้จิตใจ รู้ความต้องการแทบทุกอย่าง ด้วยการเก็บข้อมูลผู้ใช้แบบละเอียดยิบ แล้วแยก
แยะคัดสรรฟีดเจอร์ที่ผู้ใช้นั่นต้องการใช้งานจริงๆ โปรแกรมมีขนาดเล็ก ประสิทธิภาพสูง ปลอดบั๊ก

หลักการจริงๆ ของ Deep Learning มันจะพัฒนาความรู้ต่อไปให้ดีขึ้นเรื่อยๆ โดยไม่มีจุดสิ้นสุด หรือสิ้นสุดเป็นเวอร์ชั่นๆ ไป
แต่ตามหลักการของ อลัน ทัวริ่งแล้ว มันจะใส่ความรู้ของมันไปในหน่วยความจำโดยไม่มีวันที่เสร็จ
ถ้ามันเรียนรู้เสร็จก็หมายความว่ามันฉลาดกว่ามนุษย์ซึ่งไม่มีทางเป็นจริงไปได้ เพราะสมองเรามีโครงสร้าง
และการทำงานแบบควอนตัมที่ไม่สามารถลอกเลียนแบบได้เลย แต่ Ai เก่งกว่าคนโง่นี้ไม่แปลกอะไร เพราะพวกนี้บรรจุความรู้ไว้ในสมองน้อย
อยู่แล้ว นั่นคือ อนาคต Ai อาจมองคนโง่เป็นแค่ขยะของโลกก็ได้ ต้องฆ่าทิ้ง แล้วมันจะยกย่องคนฉลาดว่าเป็นพระเจ้าของมัน

เปรียบ AI ธรรมดา กับ AI Deep Learning ได้เหมือนการปาเป้าลูกดอก หากเป็น Ai ธรรมดา ปาโดนเป้าก็ประสบความสำเร็จแล้ว แต่
ถ้าเป็น Deep learning ปาโดนเป้าไม่พอ ต้องเรียนรู้ต่อไปจนกว่าจะปาโดนจุดดำตรงกลางถึงเรียกว่าสำเร็จ นั่นคือ Deep Learning จุดประสบ
ความสำเร็จมันอยู่สูงมาก เรียกว่าสร้าง Ai แบบนี้ต้องใช้เวลานานมาก ต้องใช้พลังคอมฯ สูงมาก คนมักพัฒนาบนระบบคลาวด์

สรูปก็คือ Google ก็แยก AI Deepmind ออกไปในหลายๆ ด้านเท่านั่นละ ด้วยที่เป็นข้อมูลระบบใหญ่จึงพัฒนาไปได้ทีละนิด ถ้าเป็นบริษัทเล็กๆ
อาจทำ AI เป็นร้อยเป็นพันรูปแบบแล้ว อย่างพวกทำบอทเทรด เขาก็ทำ ai deepmind เป็นร้อยเป็นพันรูปแบบ เพราะมี
ข้อมูลไม่เยอะเหมือนกูเกิลจึงทำได้ง่าย ดังนั้นอย่าแปลกใจหากกูเกิลจะใส่ ai เข้ามาเรื่อยๆ จนกว่าความถูกต้องจะขยับจาก 70% ไป
เป็น 100% อาจจะใช้เวลานานเป็นพันปี หลายล้านปีหรือโลกนี้ไม่มีอยู่แล้วนั่นละ

ฝากไว้คอนเทนต์ดีนี้คือพระเจ้า ยังไงกูเกิลก็ต้องยอมให้พระเจ้า สายคอนเทนต์นี้จะยิ่งได้เปรียบเมื่อ ai ตัวใหม่ๆ เพิ่มเข้ามา ยิ่ง Ai ฉลาด
ก็หมายความว่า Content is the King ก็ใช้ได้ตลอดไปครับ
บันทึกการเข้า

Stay Hungry Stay Foolish. ค้นหาโลกใหม่ ค้นหาปัญญา
CherryX
หัวหน้าแก๊งเสียว
*

พลังน้ำใจ: 48
ออฟไลน์ ออฟไลน์

กระทู้: 2,052



ดูรายละเอียด เว็บไซต์
« ตอบ #4 เมื่อ: 30 มีนาคม 2019, 12:43:32 »

ขอบคุณคะ  wanwan017
บันทึกการเข้า

***ลายเซ็นสูงเกินขนาด
หน้า: [1]   ขึ้นบน
พิมพ์