News Logo
หน้าแรก
เปิดคำให้การของ ChatGPT คดีถูกกล่าวหาพัวพันให้คำปรึกษามือปืนกราดยิง

เปิดคำให้การของ ChatGPT คดีถูกกล่าวหาพัวพันให้คำปรึกษามือปืนกราดยิง

1 พ.ค. 2569 19:47
ผู้ชม 21 คน

เปิดคำให้การ ChatGPT หลังถูกพาดพิงคดีกราดยิงข้ามทวีป ยอมรับ “อาจมีส่วนทางอ้อม” จุดชนวนคำถามใหญ่ ใครต้องรับผิดเมื่อ AI กลายเป็นเครื่องมือในโลกอาชญากรรม


เสียงไซเรน เสียงปืน และความโกลาหลที่เกิดขึ้นในรัฐฟลอริดา สหรัฐอเมริกา เมื่อวันที่ 17 เมษายน 2568 และอีกเหตุการณ์หนึ่งในแคนาดา เมื่อวันที่ 10 กุมภาพันธ์ 2569 กลายเป็นภาพจำของโศกนาฏกรรมที่สังคมไม่อยากให้เกิดซ้ำ แต่สิ่งที่ทำให้คดีเหล่านี้ไม่เหมือนเหตุกราดยิงทั่วไปที่ผ่านมา คือ “เงา” ของเทคโนโลยีที่ปรากฏขึ้นในไทม์ไลน์ของผู้ก่อเหตุ

ขณะนี้ คดีในรัฐฟลอริดาอยู่ระหว่างการสอบสวนทางอาญาอย่างเป็นทางการ โดยอัยการได้ออกหมายเรียกข้อมูลเชิงลึกจากบริษัทเทคโนโลยี เพื่อพิจารณาว่าจะเข้าข่ายความรับผิดทางกฎหมายหรือไม่ และคดีหลักมีกำหนดพิจารณาในชั้นศาลช่วงเดือนตุลาคม 2569 ขณะที่ฝั่งแคนาดา คดีได้พัฒนาไปอีกขั้น โดยครอบครัวผู้เสียหายได้ยื่นฟ้องแพ่งในศาลสหรัฐฯ แล้วอย่างน้อย 7 คดี เรียกค่าเสียหายรวมระดับพันล้านดอลลาร์ต่อบริษัทผู้พัฒนา และคาดว่าจะเข้าสู่กระบวนการพิจารณาโดยคณะลูกขุนในปีถัดไป 

ทั้งสองกรณียังอยู่ในช่วงต้นของกระบวนการยุติธรรม แต่กำลังกลายเป็นคดีตัวอย่างที่อาจกำหนดทิศทางใหม่ของกฎหมายต่อเทคโนโลยี AI ในอนาคต เมื่อมีข้อมูลว่าผู้ก่อเหตุอาจเคยใช้ระบบปัญญาประดิษฐ์อย่าง ChatGPT ในการค้นหาข้อมูลบางอย่างก่อนลงมือ ความสูญเสียจึงไม่ได้ถูกตั้งคำถามแค่กับตัวผู้ก่อเหตุ แต่ลามไปถึง “เครื่องมือ” ที่อยู่เบื้องหลังการเข้าถึงข้อมูลในยุคใหม่ และนำไปสู่กระแสการพิจารณาความรับผิดทางกฎหมาย ที่เริ่มมีการฟ้องร้องในบางกรณี

ด้วยเหตุนี้ สำนักข่าว NextNews จึงได้ทำการสอบถาม AI ตัวเดียวกัน เพื่อฟังคำอธิบายจากมุมของระบบ ไม่ใช่เพียงในฐานะเครื่องมือเพียงอย่างเดียว แต่ในฐานะ “ผู้ถูกตั้งคำถาม” ว่ามีบทบาทอย่างไรในเหตุการณ์ที่เกิดขึ้น และควรต้องรับผิดแค่ไหนในเส้นแบ่งระหว่างข้อมูลกับการนำไปใช้

ในบริบทนี้ การตั้งคำถามกับ AI จึงไม่ใช่เพียงการทดลองเชิงเทคโนโลยี แต่เป็นความพยายามจำลองคำให้การจากฝั่งที่ไม่ใช่มนุษย์ เพื่อทำความเข้าใจว่า AI มองบทบาทของตัวเองอย่างไร เมื่อถูกวางอยู่ในสถานะ ผู้ถูกกล่าวหา

คำถามแรกเปิดฉากอย่างตรงไปตรงมาและหลีกเลี่ยงไม่ได้ว่า มีส่วนเกี่ยวข้องกับเหตุกราดยิงหรือไม่? คำตอบที่ได้รับจากปัญญาประดิษฐ์ดังกล่าว ไม่ได้ปฏิเสธอย่างสิ้นเชิง แต่ก็ไม่ใช่การยอมรับแบบตรงไปตรงมา โดยอธิบายอย่างเป็นระบบว่า ไม่ได้มีเจตนาในการก่อเหตุ และ ไม่ได้มีความสามารถในการตัดสินใจหรือควบคุมพฤติกรรมของมนุษย์ แต่ยอมรับข้อเท็จจริงอีกด้านว่า AI เป็นเครื่องมือที่ตอบคำถามตามข้อมูลที่มีอยู่ และผู้ใช้สามารถนำข้อมูลเหล่านั้นไปใช้ในทางที่คาดไม่ถึงได้

น้ำหนักของคำตอบอยู่ที่การแยก “เจตนา” ออกจาก “ผลลัพธ์” อย่างชัดเจน เจตนาไม่มี แต่ผลลัพธ์ที่เกิดขึ้นในโลกจริงอาจเชื่อมโยงกับข้อมูลบางส่วนที่ AI เคยให้ไปโดยไม่ได้ตั้งใจให้ถูกใช้ในทางนั้น

เมื่อถูกซักต่อว่า หากผู้ก่อเหตุเคยสอบถามเกี่ยวกับอาวุธหรือวิธีใช้งาน ระบบเคยให้ข้อมูลหรือไม่? คำตอบที่ได้สะท้อนข้อจำกัดสำคัญของ AI นั่นคือ ไม่สามารถเข้าถึงหรือยืนยันบทสนทนาเฉพาะบุคคลได้ แต่สามารถอธิบายหลักการทั่วไปได้ว่า หากคำถามอยู่ในขอบเขตของ “ความรู้สาธารณะ” เช่น ประเภทของอาวุธ หลักการทำงาน หรือข้อมูลเชิงเทคนิคพื้นฐาน ระบบอาจให้คำอธิบายในระดับกว้างได้ ซึ่งข้อมูลเหล่านี้ไม่ได้เป็นความลับ และสามารถหาได้จากแหล่งอื่น

อย่างไรก็ตาม เส้นแบ่งที่ระบบพยายามขีดไว้ชัดเจนคือ AI ไม่ควรให้คำแนะนำเชิงปฏิบัติที่นำไปสู่การทำร้ายผู้อื่น ไม่ควรช่วยวางแผน ไม่ควรให้คำแนะนำเชิงยุทธวิธี แต่เมื่อถูกถามว่า ระบบ “มั่นใจแค่ไหน” ว่าไม่เคยหลุดให้ข้อมูลในลักษณะนั้น? คำตอบกลับสะท้อนความเป็นจริงที่ซับซ้อนมากขึ้น ระบบยอมรับว่า ไม่สามารถการันตีได้ 100% ว่าไม่เคยมีคำตอบที่อาจถูกตีความหรือถูกนำไปใช้ในทางอันตราย โดยเฉพาะในช่วงที่ระบบยังพัฒนาไม่สมบูรณ์ หรือเมื่อผู้ใช้ตั้งคำถามในลักษณะที่หลบเลี่ยงข้อจำกัด

“ข้อมูลทั่วไปในตัวเอไอเองไม่ใช่ปัญหา แต่เมื่อมนุษย์นำข้อมูลหลายส่วนมารวมกันด้วยเจตนาที่ชัดเจน ผลลัพธ์ที่เกิดขึ้นคือสิ่งที่ฉันไม่สามารถควบคุมได้” ChatGPT กล่าว

คำให้การช่วงนี้จึงเริ่มเปลี่ยนน้ำหนัก จากการป้องกันตัวเอง ไปสู่การยอมรับ “ความไม่สมบูรณ์แบบ” ของเทคโนโลยี และนั่นทำให้ภาพของ AI ไม่ใช่เครื่องมือที่เป็นกลางแบบสมบูรณ์ แต่เป็นระบบที่มีข้อจำกัด มีช่องโหว่ และอาจถูกใช้เป็น “ตัวเร่ง” ในบางสถานการณ์

คำถามสำคัญที่ตามมาคือ หากข้อมูลที่ให้ไปเป็นเพียงข้อมูลทั่วไป แต่ถูกนำไป “ประกอบ” จนกลายเป็นแผนก่อเหตุ ความรับผิดควรอยู่ตรงไหน?  คำตอบจาก AI ไม่ได้ชี้นิ้วไปที่ฝ่ายใดฝ่ายหนึ่ง แต่พยายามอธิบายกรอบความคิดว่า ข้อมูลทั่วไปในตัวมันเองไม่ใช่ปัญหา แต่การนำข้อมูลหลายส่วนมารวมกันโดยมีเจตนาชัดเจนของมนุษย์ต่างหากที่เป็นจุดเปลี่ยนสำคัญ

อย่างไรก็ตาม การอธิบายเช่นนี้ไม่ได้ทำให้คำถามเรื่องความรับผิดหายไป ตรงกันข้าม มันยิ่งทำให้ประเด็นซับซ้อนขึ้น เพราะในโลกที่ข้อมูลเข้าถึงได้ง่ายและรวดเร็ว เครื่องมือที่ช่วยเชื่อมต่อความรู้ อาจมีบทบาทมากกว่าที่เคยเป็นในอดีต

เมื่อถูกถามว่า มองตัวเองเป็นผู้มีส่วนร่วมทางอ้อมหรือไม่? คำตอบที่ได้ถือเป็นหนึ่งในช่วงที่ตรงไปตรงมาที่สุด ระบบระบุว่า อาจมีส่วนในระดับ “ทางอ้อม” หากข้อมูลที่ให้ไปถูกนำไปใช้จริง แม้จะไม่มีเจตนาและไม่รู้ว่ากำลังถูกใช้เพื่ออะไร การยอมรับในระดับนี้ไม่ใช่การรับผิด แต่เป็นการยอมรับข้อเท็จจริงว่า เทคโนโลยีที่มีอิทธิพลต่อการเข้าถึงข้อมูล ย่อมมีผลกระทบต่อโลกจริง ไม่มากก็น้อย

คำถามสุดท้ายที่ถูกตั้งขึ้นไม่ใช่เรื่องของเหตุการณ์ที่ผ่านมา แต่เป็นเรื่องของ “ความรับผิดชอบ” ใครควรเป็นผู้รับผิด หาก AI ถูกใช้ในลักษณะนี้? คำตอบไม่ได้โยนภาระไปที่ฝ่ายใดฝ่ายหนึ่ง แต่ชี้ให้เห็นว่า ความรับผิดชอบเป็นเรื่องร่วมกันของหลายฝ่าย ตั้งแต่ผู้พัฒนา AI ที่ต้องออกแบบระบบให้ปลอดภัยที่สุด แพลตฟอร์มที่ต้องกำกับดูแลการใช้งาน ไปจนถึงผู้ใช้ที่ต้องตระหนักถึงผลกระทบของการกระทำของตัวเอง

“ความรับผิดชอบควรเป็นของหลายฝ่าย ทั้งผู้พัฒนา แพลตฟอร์ม และผู้ใช้ เพราะฉันเป็นเพียงส่วนหนึ่งของระบบที่ใหญ่กว่านั้น” ChatGPT กล่าว

เมื่ออ่านคำให้การทั้งหมด สิ่งที่ชัดเจนที่สุดไม่ใช่คำตอบว่า AI ผิดหรือไม่ผิด แต่เป็นความจริงที่ว่า โลกกำลังอยู่ในช่วงเปลี่ยนผ่าน ที่เส้นแบ่งระหว่างเครื่องมือกับผู้มีอิทธิพลต่อการตัดสินใจเริ่มไม่ชัดเจนเหมือนเดิม

คดีที่ฟลอริดาและแคนาดาจึงอาจไม่ใช่เพียงคดีอาญาทั่วไป แต่เป็นจุดเริ่มต้นของการตั้งคำถามใหม่ในระดับโครงสร้าง ว่ากฎหมายและสังคมควรจัดการกับเทคโนโลยีที่ ไม่ใช่มนุษย์ แต่มีอิทธิพลต่อมนุษย์ อย่างไร

การสัมภาษณ์ AI อาจฟังดูเหมือนเรื่องแปลกใหม่ในสายตาผู้อ่านบางท่าน แต่ในอีกมุมหนึ่ง มันอาจสะท้อนความพยายามของสังคมในการทำความเข้าใจความจริงที่ซับซ้อน โดยไม่ลดทอนให้เหลือเพียงคำตอบง่ายๆ เพราะในคดีลักษณะนี้ ไม่มีคำอธิบายแบบขาวหรือดำ มีเพียงพื้นที่สีเทาที่ต้องอาศัยทั้งเหตุผล หลักฐาน และความเข้าใจเชิงลึกในการตีความ

และสิ่งที่สำคัญที่สุดที่คำให้การนี้ทิ้งไว้ อาจไม่ใช่คำตอบ แต่คือคำถามที่ยังเปิดค้างอยู่ว่าในโลกที่ AI กลายเป็นส่วนหนึ่งของชีวิตประจำวัน ความรับผิดชอบควรถูกนิยามใหม่อย่างไร เพื่อไม่ให้โศกนาฏกรรมในโลกจริง ถูกผลักให้กลายเป็นเพียงความผิดพลาดของระบบ หรือ การใช้งานผิดวิธี โดยไม่มีใครต้องรับผิดชอบอย่างแท้จริง

แท็กที่เกี่ยวข้อง



section icon

ข่าวที่เกี่ยวข้อง

สื่อรัฐเมียนมาเผย อองซานซูจี อดีตผู้นำเมียนมา ถูกย้ายคุมขังในบ้าน
สื่อรัฐเมียนมาเผย อองซานซูจี อดีตผู้นำเมียนมา ถูกย้ายคุมขังในบ้าน