ทุกๆ เดือน มักจะมีงานวิจัยใหม่ออกมาเคลมว่า LLM สามารถอ่านฟิล์มเอกซเรย์ได้แล้ว
ช่วงก่อนหน้านี้ ผลลัพธ์จากงานวิจัยส่วนใหญ๋มักจะออกมาคล้ายๆ กัน คือโมเดล LLM ทั่วไป เช่น GPT-4V สามารถอธิบาย findings ในภาพรังสีวิทยาได้ เช่น มองเห็นภาวะหัวใจโต (Cardiomegaly) หรือน้ำท่วมปอดชัดๆ ได้
แต่พอใช้ในบริบททางคลินิกจริงๆ LLM เหล่านี้ สู้โมเดลเฉพาะทางอย่าง CheXpert หรือสู้หมอ radio จริงๆ ไม่ได้เลย 1,2
แต่บทสรุปนี้เพิ่งถูกท้าทายด้วยเปเปอร์ที่น่าสนใจ ซึ่งตีพิมพ์ในเดือนเมษายน 2026 ที่เพิ่งผ่านมานี่เองครับ

งานวิจัยจากญี่ปุ่นที่ทดสอบโมเดลรุ่นใหม่ล่าสุด (ปลายปี 2025) กับข้อสอบบอร์ดรังสีวิทยาของญี่ปุ่น (JDRBE) พบว่า Gemini 3 Pro ทำคะแนนรวมในโหมดอ่านภาพได้ถึง 85.3% ซึ่งเทียบเท่าได้กับรังสีแพทย์ที่เพิ่งสอบผ่านบอร์ด (กลุ่ม reference ทำคะแนนได้ 65-83%) ส่วน GPT-5.1 กับ Claude Opus 4.5 ทำคะแนนเกาะกลุ่มอยู่ที่ประมาณ 80% 4
สิ่งที่ยังไม่ถูกพิสูจน์
แม้คะแนนสอบจะออกมาดูว้าวมาก แต่เปเปอร์นี้ก็เน้นย้ำชัดเจนว่าจุดอ่อนที่ใหญ่ที่สุดของ AI เหล่านี้ก็คือ การหลอน (Hallucination) ครับ ซึ่งในบริบทนี้คือ การไปอธิบายรอยโรคในที่ที่ไม่มีอยู่จริง ซึ่งยังคงเป็นข้อผิดพลาดอันดับหนึ่งอยู่ (43%)
โดยในปัจจุบัน (เม.ย. 2026) ยังไม่มีงานไหนที่เอาโมเดล LLM รุ่นล่าสุดที่เก่งกาจเหล่านี้มาทดสอบกับกลุ่มผู้ป่วยชาวไทย
แล้วทั้งหมดนี้แปลว่าอะไร สำหรับการแพทย์ในประเทศไทย ?
ข้อแรกคือ เวลาเห็นใครมาเดโม่ AI อ่านฟิล์มโชว์ใน conference คำถามที่คุณควรจะถามไม่ใช่ว่ามันอ่านเคสนี้ถูกไหม แต่ต้องถามว่าเกณฑ์มาตรฐานที่เอาไปเทียบคืออะไร และตัวที่เอามาเทียบด้วยทำคะแนนได้เท่าไหร่ ถ้าเขาตอบไม่ได้ การสาธิตนั้นก็ไม่ได้น่าเชื่อถือเท่าไหร่หรอกครับ
ข้อที่สอง แม้ gap ความสามารถตรงนี้จะแคบลงอย่างเห็นได้ชัดจนถึงระดับสอบบอร์ดผ่าน แต่ก็คงไม่ได้พลิกบริบทของรังสีแพทย์ในประเทศไทยเป็นที่แรกในอนาคตอันใกล้นี้ โดยบทบาทของโมเดล LLM ทั่วไปน่าจะเข้ามาเป็นแค่ชั้นของการจัดการ Workflow Layer ที่ครอบทับกระบวนการทำงานเดิมอีกที ไม่ใช่เครื่องมือที่จะเอามาแทนที่รังสีแพทย์แบบเบ็ดเสร็จ
ถ้าใครอยากตามไปอ่าน เปเปอร์ที่ 4 ด้านล่าง อัปเดตสถานการณ์ได้น่าสนใจมากๆ ลองไปดูกันได้ครับ