Hình ảnh người dân mang “đơn thuốc ChatGPT” đến nhà thuốc mua khiến giới chuyên môn lo ngại về xu hướng tự điều trị bằng trí tuệ nhân tạo.
Những ngày gần đây, mạng xã hội lan truyền hình ảnh người dân cầm điện thoại đến nhà thuốc, trên màn hình hiển thị đoạn trò chuyện với ChatGPT liệt kê hàng loạt loại thuốc trị ho, sổ mũi, nghẹt mũi. Người này sau đó đề nghị dược sĩ “bán đúng danh sách thuốc mà bác sĩ AI kê”.
Bức ảnh gây bão mạng với hàng nghìn bình luận trái chiều. Một số người cho rằng đây là “cách chữa bệnh tiện lợi, như có bác sĩ trong túi”. Phần đông lại cảnh báo, hành động này chẳng khác nào “đùa với sức khỏe bản thân”.
Tài khoản mạng xã hội tên H.T viết: “Nếu uống thuốc theo ChatGPT rồi bị biến chứng, ai chịu trách nhiệm? Thể trạng, tuổi tác, bệnh nền mỗi người khác nhau, sao có thể kê đơn chung được?”.
 
Hình ảnh một người dân cầm điện thoại đến nhà thuốc, trên màn hình hiển thị đoạn trò chuyện với ChatGPT liệt kê. (Ảnh mạng xã hội)
Theo bác sĩ Đoàn Dư Mạnh, Phó giám đốc Trung tâm Tim mạch và Đột quỵ, Bệnh viện Đa khoa Phương Đông, trong bức ảnh được chia sẻ, người dùng chỉ nhập vài triệu chứng như ho, sổ mũi, nghẹt mũi. ChatGPT liệt kê hàng loạt loại thuốc, trong đó có cả corticoid – nhóm thuốc chống viêm mạnh, chỉ được dùng khi có chỉ định của bác sĩ.
“Người bệnh có thể thấy đỡ triệu chứng trong thời gian ngắn, nhưng nếu nguyên nhân là vi khuẩn hoặc virus khác mà không được chẩn đoán chính xác, tình trạng có thể tiến triển thành viêm phổi hoặc viêm hô hấp nặng”, bác sĩ Mạnh nói.
Ông cho rằng rủi ro lớn nhất nằm ở chỗ AI không biết về sức khỏe tổng thể của người dùng - từ tiền sử bệnh, cân nặng, chức năng gan thận đến việc người đó có đang mang thai hay không. Nếu người bệnh suy gan, suy thận mà dùng thuốc chống viêm hoặc kháng histamin mạnh, nguy cơ suy đa tạng, thậm chí tử vong là điều hoàn toàn có thể xảy ra.
Không một bác sĩ nào kê đơn mà không hỏi tuổi, cân nặng, bệnh nền của bệnh nhân. Trong khi đó, ChatGPT chỉ dựa vào vài dòng mô tả ngắn, không có kiểm chứng lâm sàng, không thể đảm bảo an toàn.
Bác sĩ Mạnh cảnh báo, nếu nhà thuốc chấp nhận bán thuốc theo “đơn của AI”, thì đây là hành vi vi phạm quy định. Theo quy định của Bộ Y tế, các thuốc kê đơn, đặc biệt là kháng sinh, corticoid, thuốc tim mạch chỉ được bán khi có toa hợp lệ từ bác sĩ.
Trào lưu “hỏi bệnh AI” không chỉ xuất hiện ở Việt Nam. Hồi tháng 8, một người đàn ông 60 tuổi ở Mỹ suýt mất mạng sau khi làm theo “lời khuyên dinh dưỡng” từ ChatGPT.
Người này muốn cắt giảm muối trong chế độ ăn và hỏi AI về chất thay thế natri clorua. ChatGPT đã gợi ý natri bromua - hợp chất từng dùng trong thuốc trừ sâu, chất tẩy rửa bể bơi và thuốc chống co giật cho chó.
Trong suốt ba tháng, ông vô tư sử dụng natri bromua thay muối ăn. Hậu quả là bị ngộ độc bromide – căn bệnh hiếm gặp từng phổ biến cách đây hơn một thế kỷ. Bệnh nhân xuất hiện triệu chứng lú lẫn, ảo giác, hoang tưởng, nói líu và có nguy cơ hôn mê sâu.
Dù không có tiền sử bệnh tâm thần, ông phải nhập viện khẩn cấp và điều trị nội trú suốt ba tuần. Các bác sĩ sau đó cảnh báo đây là lời nhắc đáng sợ về việc dùng AI để chẩn đoán và điều trị sức khỏe, khi người dùng quá tin vào một cỗ máy không có khả năng chịu trách nhiệm.
https://vtcnews.vn/don-thuoc-chatgpt-chua-ho-nghet-mui-va-loi-canh-bao-tu-bac-si-ar984258.html
 
                     
                                                                     
                                                                     
                                                                     
                                                                     
                                                                     
                                                             
                                                             
                                                             
                                                             
                                                             
                                                             
                                                             
                                                                             
                                                                             
                                                                             
                                                                             
                                                                             
                                                                             
                                                                             
                                                                            