TH EN
alt

Bad News: Artificial Intelligence Is Racist, Too

  11 พ.ค. 2560   ข่าวประชาสัมพันธ์

When Microsoft released an artificially intelligent chatbot named Tay on Twitter last March, things took a predictably disastrous turn. Within 24 hours, the bot was spewing racist, neo-Nazi rants, much of which it picked up by incorporating the language of Twitter users who interacted with it.  

Unfortunately, new research finds that Twitter trolls aren't the only way that AI devices can learn racist language. In fact, any artificial intelligence that learns from human language is likely to come away biased in the same ways that humans are, according to the scientists.

The researchers experimented with a widely used machine-learning system called the Global Vectors for Word Representation (GloVe) and found that every sort of human bias they tested showed up in the artificial system. [Super-Intelligent Machines: 7 Robotic Futures]

เป็นเรื่องมาจนได้กับเทคโนโลยีที่เรียกได้ว่า อันตรายกันเลยทีเดียว ด้วยสมองปัญญาประดิษฐ์ ต่อไปเราคงได้มีสงครามหุ่นเหล็ก เหมือนในภาพยนต์ Terminator แน่นอน
เพราะมนุษย์ ริ ที่จะคิดสร้างสรรค์ให้เครื่องจักรสามารถทำงาน คิดเป็น สร้างสรรค์ มีจินตนาการ โดยเฉพาะการทำงานในรูปแบบความรู้สึก AI คือปัญญาประดิษฐ์ที่อนาคตควร
ไตร่ตรองกับเทคโนโลยีสิ่งนี้ เทคโนโลยีควรเป็นเพียงเทคโนโลยีที่คอยช่วยเหลือมนุษย์ในการสร้างสรรค์ มิใช่การประดิษฐ์เพื่อให้เกิดความคิดหายนะขึ้นมา หากถ้าว่ามันคิดได้
คงคิดว่าเรา "มนุษย์" นั้นแหละคือสิ่งมีชีวิตอันตรายที่สุด ของโลก

"แต่จริงๆ แล้ว มนุษย์นั้นเอง ที่อันตรายที่สุดจริงๆ คือ ไวรัสที่ไม่รู้จักคำว่า พอ"
คงไม่ผิดหาก AI จะมองว่าเรานั้นแหละคือสิ่งอันตราย ถ้าไม่ควบคุม สุดท้าย AI จะเป็นผู้ตัดสินที่เที่ยงธรรมที่สุด

ปล.ฝากแนวคิดการสร้างอย่างสร้างสรรค์ มิใช่เพื่อประโยชน์เพื่อตัวเอง
----------------------------------------------------------------
ขอบคุณที่มาข้อมูล www.livescience.com