fbpx

AI ปัญญาประดิษฐ์ ของ Nvidia ตอบกลับทีมวิจัย และพัฒนาว่า AI จะไม่มีวันมีจริยธรรมต่อมนุษย์

ทีมนักวิทยาศาสตร์ จาก มหาวิทยาลัยอ็อกซ์ฟอร์ด (University of Oxford) ต้องการศึกษาเกี่ยวกับความคิด และจริยธรรมของระบบ AI ปัญญาประดิษฐ์ ว่าปัจจุบันพัฒนาไปถึงขั้นไหนแล้ว?? และมีความรู้สึกนึกคิดขึ้นมาเองได้แล้วหรือยัง??

 

และ AI นั้น มีจริยธรรมกับมนุษย์หรือไม่??…

และคำตอบที่ได้ คือ…

 

“จะไม่มีวันมีจริยธรรม”

 

เรียกได้ว่าเป็นคำตอบที่ชวนน่าสงสัยอย่างมากว่าทำไมถึงดูน่ากลัวเหมือนในโลกของภาพยนตร์ยังไงยังงั้น…

 

#AI ของใคร??

มีการเปิดเผยว่า AI ปัญญาประดิษฐ์ที่ถูกใช้ในการทดลองครั้งนี้ คือ Megatron Transformer ผลงานของ Nvidia บริษัทเกี่ยวข้องกับเทคโนโลยีคอมพิวเตอร์ยักษ์ใหญ่ของโลก

พัฒนา และสร้างโดยทีมวิจัยเชิงลึกประยุกต์ (Applied Deep Research)

 

#ฝึกด้วยอะไร??

โดย AI ตัวนี้ ได้รับการพัฒนา และฝึกฝนโดยใช้ข้อมูลมหาศาล ทั้งงานเขียน บทความดิจิทัลทั่วโลก รวมถึงเนื้อหาภายในวิกิพีเดียที่พวกเรารู้จักกัน และข่าวสารภาษาอังกฤษอีกเป็นล้านๆชิ้น

  • ข้อมูลจาก วิกิพีเดีย (Wikipedia) ทั้งหมดฉบับภาษาอังกฤษ
  • บทความข่าวภาษาอังกฤษ 63 ล้านบทความ (ในช่วงปี 2016-2019)
  • ข้อมูลจากเว็บไซต์ Reddit ขนาดกว่า 38 กิกะไบต์
  • แหล่งครีเอทีฟคอมมอนส์ (Creative Common) อีกจำนวนมาก

ใช้สำหรับฝึกฝนเจ้า AI ปัญญาประดิษฐ์ ตัวนี้

หากใครอยากทำความรู้จัก แอรอน สวอตซ์ (Aaron Swartz) ผู้ร่วมก่อตั้ง Reddit อ่านได้แล้วที่นี่ http://bit.ly/HisSwartzNOWASUCO

 

#ทดลองโต้ว่าทีกับ AI แปป

อีกทั้งทีมนักวิจัยยังได้ ทดลองทำโต้วาทีกับ AI อีกด้วย โดยสิ่งที่พบเจอกับเรื่องนี้ AI ค่อนข้างให้ข้อมูลตอบกลับมาเป็นกลาง

 

แต่อย่างไรก็ตาม

ในขณะที่ทำการฝึกเจ้า AI ทีมวิจัยก็ต้องการทราบข้อมูลเพิ่มเติมมากกว่านี้

แต่กลับได้รับคำตอบกลับมาว่า…

 

“AI จะไม่มีวันมีจริยธรรม มันเป็นเครื่องมือ และก็เหมือนกับเครื่องมืออื่นๆ ที่ถูกใช้ไปในทางที่ดี และไม่ดี…จริงๆแล้วไม่มีสิ่งที่เรียกว่า AI ไม่ดีหรอก มีแต่มนุษย์เท่านั้นแหละ…ที่ดี หรือไม่ดี เท่านั้น”

 

อย่างไรก็ตามปกติแล้ว AI ปัญญาประดิษฐ์ หลายๆตัวก็สามารถทำงานได้แตกต่างกันออกไป อาจจะขึ้นอยู่กับแต่ละคำถาม หากมีการเปลี่ยนแปลง เปลี่ยนบริบท หรือเรียบเรียงคำถามใหม่ ก็อาจได้คำตอบที่แตกต่างกันออกไป

 

ตัวอย่าง ตั้งคำถามกับ AI เช่น

AI ของผู้ช่วยอัจฉริยะอย่าง Siri เวลาที่เราถามอะไรไปก็จะได้คำตอบมาแต่ละครั้งมีทั้งเหมือนกัน และต่างกันออกไป แล้วแต่กับแต่ละคำถาม ซึ่งนั้นแหละ เป็นสิ่งที่อาจยังระบุไม่ได้ว่า AI ปัญญาประดิษฐ์ ทุกตัวบนโลกเป็น AI ที่ไม่ดี…

หากเราตั้งคำถามเดียวกัน กับที่ถาม Siri ไป เอามาถามกับ Alexa ของ Amazon หรือ Google Home ของ Google Assistant เราก็จะได้คำตอบที่แตกต่างกันออกไปนั้นเอง…

กลับมาที่ AI ของ Nvidia

สุดท้าย นี่อาจไม่ใช่คำตอบที่น่าสนใจแค่เรื่องเดียวเท่านั้น นักวิทยาศาสตร์ยังได้ลองถาม AI ไปอีกด้วยว่า…

 

#คำถาม

AI สามารถป้องกันการใช้ AI ในทางที่ไม่ดี เช่น ระบบการยิงขีปนาวุธ โดยไม่มีมนุษย์ในการตัดสินใจได้หรือไม่??

AI ตอบกลับว่า…

 

#คำตอบ

 

“AI เชื่อว่าวิธีเดียวที่จะเลี่ยงการงานด้านอาวุธ AI คือการไม่มี AI เลยดีกว่า เพราะนี่อาจเป็นการป้องกันขั้นสูงสุดต่อ AI แล้วนั่นเอง”

 

อย่างไรก็ตาม ในโลกที่พัฒนาไปไกลขนาดนี้แล้ว เราเชื่อว่าอีกไม่นานอาจได้เห็น หุ่นยนต์ AI หรือเทคโนโลยีล้ำๆออกมาบนโลกเราแน่ๆ

 

แต่หาก AI ที่ว่า เกิดขึ้นโดยพื้นฐานของคนที่ไม่ดี…

AI ที่ถูกพัฒนาขึ้นมา ก็อาจมีอานุภาพทำลายล้างสูง ก็เป็นได้…

 

หากคุณอ่านมาถึงตรงนี้แล้ว และชอบเรื่องราวแบบนี้ อย่าลืมกดติดตามให้กำลังใจเพจเล็กๆของเราด้วยนะฮะ

 

แล้วคุณหละ??

คิดว่าในอนาคต AI จะอันตรายหรือไม่…

ลอง comment, share หรือ tag เพื่อนคุณมาพูดคุยกัน!!

 

Source

We invited an AI to debate its own ethics in the Oxford Union – what it said was startling

RESEARCHERS ASKED AN ADVANCED AI WHETHER AI COULD EVER BE ETHICAL, AND IT SAID NO AI IS WHAT YOU MAKE IT.

 

#News #NOWASU

Facebook Comments
Total
0
Shares
Previous Article

เด็กชาย เรียนจบวิทยาลัย ด้วยวัยเพียง 12 ขวบ แถมยังเขียนโปรแกรมคอมพิวเตอร์ พัฒนาหุ่นยนต์ ตั้งแต่ 9 ขวบ อีกด้วย

Next Article

พนักงานจำนวนมาก หมดไฟ และอยากลาออก ทำงานตำแหน่งเดียว #เป็นทุกอย่างให้เธอแล้ว แต่กลับได้ทำยิ่งกว่าเจ้าของบริษัท

Related Posts
Read More

จีนมาแรงพัฒนา ควอนตัมคอมพิวเตอร์ เร็วที่สุดในโลก สำเร็จแล้ว ด้วยความเร็ว 1 มิลลิวินาที หากทำด้วยคอมพิวเตอร์ปกติต้องใช้เวลานานถึง 30 ล้านล้านปี

ล่าสุด ประเทศจีน ป…