เมื่อพูดถึง Artificial Intelligence (AI) หลายคนคงนึกถึงหุ่นยนต์ที่รับคำสั่งจากมนุษย์ เรียนรู้ และพัฒนาได้ด้วยตัวเองผ่านการประมวลผลข้อมูลทุกๆวัน โดยที่เราไม่จำเป็นจะต้องไปสอนทุกขั้นตอนหรือใส่ข้อมูลใหม่ๆตลอดเวลาก็ได้ ยิ่งไปกว่านั้น AI ยังสามารถคาดการณ์เหตุการณ์ในอนาคตหรือให้เหตุผลต่างๆได้ใกล้เคียงกับมนุษย์ แต่ตอนไหนล่ะที่เราสามารถเชื่อใจ AI ได้
⠀⠀
เพื่อที่จะอธิบายสถานะของ AI ว่ายังสามารถทำงานได้เป็นปรกติหรือไม่ Explainable AI (XAI) จึงถูกพัฒนาขึ้นมาอธิบายการตัดสินใจต่างๆของ AI รวมถึงแสดงหลักฐาน ที่มา ของการตัดสินใจนั้นๆ ส่งผลให้เราสามารถวิเคราะห์เบื้องต้นก่อนได้ว่าสมควรจะเชื่อการตัดสินใจดังกล่าวหรือไม่
⠀⠀
และเมื่อไม่นานมานี้นักวิจัยจาก University of Toronto ร่วมมือกับ LG AI Research ได้สร้าง XAI ขึ้นมาเพื่อช่วยหาและแก้ไขข้อผิดพลาดที่เกิดขึ้นบนจอแสดงผล โดยเทคโนโลยีนี้ยังมีกลุ่มเป้าหมายลูกค้าที่หลากหลาย ไม่ว่าจะเป็นบุคลากรในวงการ IT เอง หรือแม้กระทั่งผู้ใช้ทั่วๆไป