Neural Matching ไม่น่าจะธรรมดา คงต้องมีอะไรให้คิดเพิ่มอีกเยอะนะผมว่า ถ้าให้เดานะ อย่างค้นหาคำว่า "ต้องการรองเท้าวิ่งสบายเท้า" มันอาจจะเอาเนื้อหาเกี่ยวกับ "วิ่งแล้วปวดเท้าเพราะรองเท้าไม่ดี" อันนี้แย่เลยนะ เพราะต้องเขียนคีเวิร์ดดักกันอีกเยอะ
AI ทั้งสองตัวนี้ต่อยอดมาจาก Deepmind ครับ เป็นบริษัทอังกฤษที่กูเกิลซื้อไว้ เข้าไปดูผลงานในยูทูปได้ครับ
ช่องยูปทูปชื่อ Deepmind ปัจจุบันจะสร้างอัลกอลิทึ่ม AI แข่งกับเกมส์ ที่สำเร็จไปแล้วก็เกมส์โกะ ตอนนี้ในช่องยูทูปก็โชว์
ผลงาน Ai เล่นเกมส์ dota2 แข่งกับทีมมนุษย์ การแข่งความฉลาดกับมนุษย์ได้ ก็เหมือน Google แข่งกับ
ความฉลาดในความคิดของมนุษย์ ยิ่ง AI มันฉลาดกว่า กูเกิลก็จับความฉลาดมาเพิ่มใน AI การค้นหา มีหลายคนแปลกใจ
ว่าทำไมเขาถึงเน้นสร้าง ai แข่งเกมส์กับคน เพราะเขาต้องการให้ ai ไปดูดซับความฉลาดหรืออัลกอลิทึ่มจากคนเก่งๆ มา
Stadia หรือ การเล่นเกมส์สตีมมิ่งบนยูทูปนั่น คือ ai พวกนี้จะคอยดูดความฉลาดจากพวกอัลกอลิทึ่มในสมองดีมาต่อยอด
เรียกว่า สร้าง ai ขึ้นมากินหลายต่อ กินได้ทุกแนวรบ ทั้งเสิร์จ ทั้งรู้ใจคน ทั้งฉลาดกว่าคน อนาคตก็คือมันฉลาดมากกว่าคน
ทั่วไปแน่นอนเดาทางถูกหมด ใครฉลาดกว่า ai มันก็จะยอมตกเป็นเครื่องมือรับใช้ที่แสนเชื่องเพื่อเรียนรู้จากคนเก่ง
Deepmind ได้แนวคิดมาจาก อลัน ทัวริ่ง คนที่คิดค้นสร้างเครื่องจักรถอดรหัส เครื่อง อีนิกม่า ของนาซีในสงครามโลกครั้งที่สองนั่นละ
จนได้รับฉายาว่า เป็นบิดาแห่งยุคข้อมูลข่าวสาร หรือ ผู้คิดค้นอัลกอลิที่ม
อลัน ทัวริ่ง คิดว่า จะต้องไม่มานั่งถอดรหัสอยู่ทุกวันหรือทุกครั้ง ที่ทางนาซีเปลี่ยนฮาร์ดแวร์ เปลี่ยนชุดคำสั่งใหม่
ด้วยการใส่สมองให้กับเครื่องจักรไว้เลย เรียกว่า สื่อสารกันรูปแบบเก่า รูปแบบใหม่ รูปแบบอนาคต เงื่อนไขสำคัญของ
นาซีคือข้อความที่ส่งนั้นจะมีอายุแค่เพียง 1 วันส่งวันละหลายพันหลายหมื่นข้อความ คนเป็นล้านมานั่งถอดรหัสก็ไม่หมด
ยังไงก็ไม่หมด แต่เครื่องจักรของ อลัน ทัวริ่ง ทำงานได้เร็วมากและถูกต้องเสมอ นั่นคือ เขาเลียนแบบการทำงานของสมองมนุษย์
อย่างแรก ก็คือ สร้างฮาร์ดแวร์(คอมพิวเตอร์) อย่างที่สองก็คือซอฟต์แวร์(มีโอเอส และ แอปต่าง) โหลด(เก็บ)ไว้ในหน่วยความจำก่อน
ทั้งหมดนี้เรียกว่า สมองของเครื่องจักร อลัน ทัวริ่ง หากนาซีเปลี่ยนเครื่องมือสื่อสารใหม่ อังกฤษก็สร้างแอปใหม่เพิ่มเติม(สมัยนั้นเรียกว่า
อัลกอลิทึ่มหรือสูตรทางคณิตศาสตร์) แล้วใส่เพิ่มลงไปในหน่วยความจำของเครื่อง หากเป็นคนถอดรหัสก็ต้องมาคิดมานั่งคำนวณกันใหม่อีกนาก
นั่นคือ เปรียบเทียบให้เห็นภาพ เครื่องจักร อลัน ทัวริ่ง กับคอมพิวเตอร์ในยุคปัจจุบันเหมือนกันคือ ต้องมีฮาร์ดแวร์ประสิทธิภาพสูง บ้านเรา
เรียกสเปคสูง แล้วก็ลงวินโดว์ไว้ สมมุติว่านาซีใช้โปรแกรม Word เข้ารหัส เราก็แค่ลง Word ไป ถ้านาซีใช้โปรแกรม photoshop เข้ารหัส
ก็เพียงแค่ใส่ photoshop เพิ่มไป หากมีรูปแบบการเข้ารหัสเป็นร้อยล้านรูปแบบ ก็ลงโปรแกรมถอดรหัสร้อยล้านแบบไปในหน่วยความจำ
ไม่จำเป็นจะต้องมาสร้างเครื่องจักรใหม่อีก
หรือต้องคอยให้คนมานั่งถอดรหัสใหม่อยู่ตลอดเวลา เครื่องทำงานได้เร็ว ทำซ้ำได้ง่าย แม่นยำมาก และถอดระหัสได้ทั้งวันทั้งคืน จนนาซีพ่ายแพ้ไปในที่สุด
บริษัท DeepMind ก็พัฒนาบนหลักการของ อลัน ทัวริ่ง เพิ่มขึ้นคือ นอกจากใส่ความรู้ในสมองคอมพิวเตอร์ให้มากขึ้น เปรียบเทียบได้คือ
ลงโปรแกรมให้วินโดว์ไปสักแสนโปรแกรม(คอมพิวเตอร์ในจินตนาการ) ทาง DeepMind ก็สั่งให้คอมพิวเตอร์นี้เอาองค์ความรู้จากหลายแสน
โปรแกรมที่คนใช้งานนี้มาคาดการณ์อนาคตว่า มนุษย์หรือคนนี้อยากได้โปรแกรมแนวไหน หน้าตาเป็นอย่างไร มีฟีดเจอร์อะไรบ้าง โดยดึงเอา
ความรู้จากการใช้งานของคนมาเป็นฐานความรู้เพื่อต่อยอดว่า โปรแกรมในอนาคตสำหรับคนนี้คืออะไร ทุกวันนี้ก็เรียก AI นั่นละ และ Deepmind
ก็ทำไม่ต่างจากบริษัทอื่นๆ ทำด้วย
แต่ DeepMind ต่างจาก AI ธรรมดา ก็คือ เขาใช้หลักการของ Deep Learning เข้ามาช่วย เพื่อให้การคาดการณ์ในอนาคตแม่นยำมากยิ่งขึ้น
นั่นคือ โปรแกรมใหม่ที่คอมพิวเตอร์สร้างมาให้คนนั่น มันจะต้องรู้จิตใจ รู้ความต้องการแทบทุกอย่าง ด้วยการเก็บข้อมูลผู้ใช้แบบละเอียดยิบ แล้วแยก
แยะคัดสรรฟีดเจอร์ที่ผู้ใช้นั่นต้องการใช้งานจริงๆ โปรแกรมมีขนาดเล็ก ประสิทธิภาพสูง ปลอดบั๊ก
หลักการจริงๆ ของ Deep Learning มันจะพัฒนาความรู้ต่อไปให้ดีขึ้นเรื่อยๆ โดยไม่มีจุดสิ้นสุด หรือสิ้นสุดเป็นเวอร์ชั่นๆ ไป
แต่ตามหลักการของ อลัน ทัวริ่งแล้ว มันจะใส่ความรู้ของมันไปในหน่วยความจำโดยไม่มีวันที่เสร็จ
ถ้ามันเรียนรู้เสร็จก็หมายความว่ามันฉลาดกว่ามนุษย์ซึ่งไม่มีทางเป็นจริงไปได้ เพราะสมองเรามีโครงสร้าง
และการทำงานแบบควอนตัมที่ไม่สามารถลอกเลียนแบบได้เลย แต่ Ai เก่งกว่าคนโง่นี้ไม่แปลกอะไร เพราะพวกนี้บรรจุความรู้ไว้ในสมองน้อย
อยู่แล้ว นั่นคือ อนาคต Ai อาจมองคนโง่เป็นแค่ขยะของโลกก็ได้ ต้องฆ่าทิ้ง แล้วมันจะยกย่องคนฉลาดว่าเป็นพระเจ้าของมัน
เปรียบ AI ธรรมดา กับ AI Deep Learning ได้เหมือนการปาเป้าลูกดอก หากเป็น Ai ธรรมดา ปาโดนเป้าก็ประสบความสำเร็จแล้ว แต่
ถ้าเป็น Deep learning ปาโดนเป้าไม่พอ ต้องเรียนรู้ต่อไปจนกว่าจะปาโดนจุดดำตรงกลางถึงเรียกว่าสำเร็จ นั่นคือ Deep Learning จุดประสบ
ความสำเร็จมันอยู่สูงมาก เรียกว่าสร้าง Ai แบบนี้ต้องใช้เวลานานมาก ต้องใช้พลังคอมฯ สูงมาก คนมักพัฒนาบนระบบคลาวด์
สรูปก็คือ Google ก็แยก AI Deepmind ออกไปในหลายๆ ด้านเท่านั่นละ ด้วยที่เป็นข้อมูลระบบใหญ่จึงพัฒนาไปได้ทีละนิด ถ้าเป็นบริษัทเล็กๆ
อาจทำ AI เป็นร้อยเป็นพันรูปแบบแล้ว อย่างพวกทำบอทเทรด เขาก็ทำ ai deepmind เป็นร้อยเป็นพันรูปแบบ เพราะมี
ข้อมูลไม่เยอะเหมือนกูเกิลจึงทำได้ง่าย ดังนั้นอย่าแปลกใจหากกูเกิลจะใส่ ai เข้ามาเรื่อยๆ จนกว่าความถูกต้องจะขยับจาก 70% ไป
เป็น 100% อาจจะใช้เวลานานเป็นพันปี หลายล้านปีหรือโลกนี้ไม่มีอยู่แล้วนั่นละ
ฝากไว้คอนเทนต์ดีนี้คือพระเจ้า ยังไงกูเกิลก็ต้องยอมให้พระเจ้า สายคอนเทนต์นี้จะยิ่งได้เปรียบเมื่อ ai ตัวใหม่ๆ เพิ่มเข้ามา ยิ่ง Ai ฉลาด
ก็หมายความว่า Content is the King ก็ใช้ได้ตลอดไปครับ