Bạn thức dậy với một cơn đau đầu âm ỉ và cảm giác buồn nôn. Mười năm trước, phản xạ đầu tiên của bạn là mở Google và gõ triệu chứng. Kết quả trả về là hàng nghìn đường link rối rắm, và bạn hoảng sợ vì nghĩ mình bị u não. Đó là thời đại của “Bác sĩ Google”.
Nhưng hôm nn không tìm Google nữa. Bạn mở ChatGPT hoặc Gemini và hỏi: “Tôi bị đau đầu, buồn nôn, tôi bị bệnh gì và nên uống thuốc gì?”. Chỉ trong vài giây, một câu trả lời trôi chảy, đầy đủ tên thuốc và liều lượng hiện ra. Bạn cảm thấy yên tâm vì nó quá giống lời khuyên của một chuyên gia.
Nhưng hãy chậm lại một nhịp! Sự “yên tâm” đó chính là cái bẫy. Giới y khoa có một nhận định khiến ai cũng phải giật mình: “AI có thể đọc thuộc lòng 10.000 cuốn sách y khoa trong 1 giây, nhưng nó chưa bao giờ biết cảm giác sờ vào mạch đập hay nhìn sắc mặt của một bệnh nhân thực sự. Đó là lỗ hổng chết người.” Chúng ta đang bước từ nỗi sợ hãi mơ hồ của “Bác sĩ Google” sang sự tin tưởng mù quáng vào “Giáo sư AI” – một thảm họa y tế tiềm tàng đang chực chờ bùng nổ.
1. Từ “Cyberchondria” đến ảo tưởng về sự thấu hiểu
Trước khi AI tạo sinh (Generative AI) bùng nổ, y học thế giới đã phải đối mặt với thuật ngữ Cyberchondria (Bệnh tưởng do Internet). Đây là tình trạng lo âu thái quá về sức khỏe sau khi tra cứu thông tin trực tuyến [1]. Tuy nhiên, “Bác sĩ Google” chỉ dừng lại ở việc cung cấp thông tin thô. Người dùng phải tự đọc, tự lọc và (thường là) tự hoảng sợ.
Sự xuất hiện của AI đã thay đổi hoàn toàn cuộc chơi. AI không đưa ra danh sách các bài báo; nó đưa ra câu trả lời. Nó tổng hợp thông tin, xưng hô “tôi” và “bạn”, thậm chí thể hiện sự thấu cảm giả tạo. Chính khả năng ngôn ngữ mượt mà này đã tạo ra một “ảo giác về thẩm quyền” (illusion of authority). Người dùng không còn cảm thấy mình đang tra cứu máy móc, mà tin rằng mình đang được tư vấn riêng biệt [2].
Đây chính là bước chuyển nguy hiểm: từ việc tham khảo thông tin sang việc phụ thuộc vào chẩn đoán.
2. “Ảo giác AI”: Khi máy móc nói dối với vẻ mặt tỉnh bơ
Rủi ro lớn nhất khiến AI trở thành “thảm họa” trong y tế cá nhân chính là hiện tượng “Hallucination” (Ảo giác AI). Các mô hình ngôn ngữ lớn (LLM) được huấn luyện để dự đoán từ tiếp theo sao cho nghe hợp lý nhất, chứ không phải để kiểm chứng sự thật [3].
Một nghiên cứu được công bố trên JAMA Internal Medicine đã chỉ ra rằng, mặc dù AI có thể trả lời đúng nhiều câu hỏi y khoa cơ bản, nhưng nó hoàn toàn có thể bịa ra các trích dẫn y khoa, bịa ra tên thuốc hoặc phác đồ điều trị không tồn tại với một giọng văn vô cùng tự tin [4].
Ví dụ thực tế: Khi được hỏi về một triệu chứng hiếm gặp, AI có thể “sáng tác” ra một hội chứng mới bằng cách ghép nối các thuật ngữ y khoa lại với nhau. Với người không có chuyên môn, sự mạch lạc này được đánh đồng với sự chính xác.
3. Khoảng trống lâm sàng: Cái giá của việc thiếu “giác quan thứ 6”
Y học không chỉ là logic nhị phân (0 và 1), mà là nghệ thuật của sự quan sát và cảm nhận. Đây là “tử huyệt” mà AI chưa thể khắc phục.
3.1. AI “mù” trước các dấu hiệu sinh tồn
Một bác sĩ lâm sàng mất 10 phút để hỏi bệnh, nhưng họ cũng mất từng đó thời gian để quan sát: Da bệnh nhân có xanh xao không? Hơi thở có mùi lạ không? Dáng đi có bất thường không? [5]. AI hoàn toàn “mù” trước các dữ liệu phi ngôn ngữ này.
Việc bạn nhập vào máy tính “Tôi bị đau bụng” là không đủ. Đau quặn từng cơn hay đau âm ỉ? Bụng mềm hay bụng cứng như gỗ? AI không thể “sờ” vào bụng bạn để phát hiện phản ứng thành bụng – dấu hiệu sinh tồn quyết định việc bạn cần mổ cấp cứu hay chỉ cần uống men tiêu hóa.
3.2. Tính cá thể hóa bị bỏ qua
Mỗi bệnh nhân là một cá thể độc lập với tiền sử gen, dị ứng và lối sống khác nhau. Một phác đồ điều trị tăng huyết áp cho người A có thể là “thuốc độc” với người B nếu họ bị suy thận. AI hiện tại thường đưa ra các lời khuyên dựa trên dữ liệu trung bình của đám đông (population-based data), bỏ qua tính cá thể hóa (personalized medicine) – điều kiện tiên quyết trong điều trị y khoa hiện đại [6].
4. Rủi ro pháp lý và đạo đức: Ai chịu trách nhiệm?
Khi một bác sĩ kê đơn sai, họ phải chịu trách nhiệm trước pháp luật và hội đồng y khoa. Nhưng khi bạn uống thuốc theo lời khuyên của AI và bị sốc phản vệ, ai sẽ chịu trách nhiệm?
- Nhà phát triển AI? (Họ đã có điều khoản miễn trừ trách nhiệm).
- Chính bạn? (Vì bạn đã tự ý sử dụng).
Tổ chức Y tế Thế giới (WHO) đã cảnh báo về việc thiếu các quy định pháp lý trong việc sử dụng AI cho mục đích sức khỏe cá nhân, nhấn mạnh rằng dữ liệu dùng để huấn luyện AI có thể chứa định kiến (bias), dẫn đến các lời khuyên sai lệch cho các nhóm chủng tộc hoặc nhân khẩu học cụ thể [7].
5. Làm sao để sử dụng AI một cách thông minh?
Chúng ta không phủ nhận lợi ích của công nghệ. AI là một công cụ tra cứu tuyệt vời nếu biết dùng đúng cách. Thay vì coi AI là “Giáo sư”, hãy coi nó là “Thư ký y khoa”:
- Dùng để giải thích thuật ngữ: Hãy hỏi AI về ý nghĩa của các chỉ số xét nghiệm (ví dụ: “Chỉ số WBC trong xét nghiệm máu là gì?”) thay vì hỏi chẩn đoán (“WBC cao thế này tôi bị bệnh gì?”).
- Dùng để chuẩn bị trước khi gặp bác sĩ: Hãy nhờ AI liệt kê các câu hỏi nên hỏi bác sĩ dựa trên triệu chứng của bạn.
- Nguyên tắc “Trust but Verify” (Tin nhưng phải kiểm chứng): Mọi lời khuyên về thuốc thang, can thiệp vào cơ thể từ AI đều phải được xác nhận bởi nhân viên y tế có chứng chỉ hành nghề.
6. Kết luận
Công nghệ sinh ra để phục vụ con người, nhưng nó không thể thay thế tính nhân văn và kinh nghiệm lâm sàng trong y học. “Bác sĩ Google” từng khiến chúng ta lo âu, nhưng “Giáo sư AI” có thể khiến chúng ta trả giá bằng cả tính mạng vì sự tự tin thái quá.
Hãy nhớ rằng: AI có thể đọc hết 10.000 cuốn sách y khoa trong một giây, nhưng nó chưa bao giờ biết cảm giác nắm tay một bệnh nhân để cảm nhận mạch đập. Đừng giao phó sức khỏe – tài sản quý giá nhất của bạn – cho một thuật toán vô tri.
*Tài liệu tham khảo (References)
[1] Starcevic, V., & Berle, D. (2013). Cyberchondria: Towards a better understanding of excessive health-related Internet use. Expert Review of Neurotherapeutics, 13(2), 205-213. [2] Haupt, C. E., & Marks, M. (2023). AI-Generated Medical Advice—GPT and Beyond. JAMA, 329(16), 1349–1350. [3] Ji, Z., Lee, N., Frieske, R., Yu, T., Su, D., Xu, Y., … & Fung, P. (2023). Survey of hallucination in natural language generation. ACM Computing Surveys, 55(12), 1-38. [4] Ayers, J. W., Poliak, A., Dredze, M., et al. (2023). Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum. JAMA Internal Medicine, 183(6), 589–596. [5] Verghese, A., Brady, E., Kapur, C. C., & Horwitz, R. I. (2011). The bedside evaluation: ritual and reason. Annals of Internal Medicine, 155(8), 550-553. [6] Topol, E. J. (2019). Deep medicine: how artificial intelligence can make healthcare human again. Basic Books. [7] World Health Organization. (2023). Ethics and governance of artificial intelligence for health: Guidance on large multi-modal models. Geneva: WHO.Tác giả: Nghiêm Ngọc Long
Hiệu đính: Lê Thị Thảo Hiền
Y khoa Diễn đàn Y khoa, y tế sức khoẻ, kiến thức lâm sàng, chẩn đoán và điều trị, phác đồ, diễn đàn y khoa, hệ sinh thái y khoa online, mới nhất và đáng tin cậy.
