ChatGPT ที่คนกำลังเห่อมาตั้งแต่ต้นปี มักมีนิสัยมโนคำตอบขึ้นเองบ้างดังที่เห็นในข่าวดังๆ หลายครั้ง จนครั้งล่าสุดมีการศึกษาเกี่ยวกับการให้ AI ตัวนี้แนะนำการรักษาโรคมะเร็ง ที่พบว่าให้คำตอบไม่ค่อยถูกต้องตามไกด์ไลน์มาตรฐานอย่าง National Comprehensive Cancer Network (NCCN)
โดยนักวิจัยจากโรงพยาบาล Brigham and Women’s Hospital ในเมืองบอสตัน ที่มีชื่อเสียงด้านการรักษามะเร็งเต้านม ต่อมลูกหมาก และมะเร็งปอด ได้ทดลองถาม ChatGPT ให้สร้างแผนการรักษาอิงตามความรุนแรงของแต่ละเคส
ซึ่งผลที่ได้นั้นพบว่าแชทบอทที่ใช้ Large Language Model (LLM) ที่พัฒนาโดย OpenAI ที่มีไมโครซอฟท์เป็นเจ้าของส่วนหนึ่งนั้น กลับให้คำแนะนำผิดพลาดมากถึง 1 ใน 3 จากจำนวนเคสทั้งหมด แม้คำตอบกว่า 98% จะมีคำแนะนำอย่างน้อย 1 รายการที่ตรงไกด์ไลน์ของ NCCN
แต่เมื่อพิจารณาคำตอบทั้งหมดแล้ว โรงพยาบาลนี้ยอมรับคำตอบได้อย่างสมบูรณ์เพียงแค่ 62% ของจำนวนคำตอบทั้งหมด แถมมีเคสกว่า 12.5% ที่ ChatGPT ให้คำแนะนำที่ไม่ได้มีในไกด์ไลน์ โดยมักผสมคำแนะนำที่ถูกต้องกับไม่ถูกต้องผสมกันจนยากจะแยกออกแม้จะเป็นผู้เชี่ยวชาญก็ตาม
อ่านเพิ่มเติมที่นี่ – Seekingalpha