Rob Morris — đồng sáng lập Koko, một dịch vụ sức khỏe tâm thần miễn phí và tổ chức phi lợi nhuận hợp tác với các cộng đồng trực tuyến để tìm kiếm và điều trị cho những người có nguy cơ mắc bệnh — đã viết trong một chủ đề trên Twitter rằng công ty của anh đã sử dụng chatbot GPT-3 để giúp phát triển các phản hồi đối với 4.000 người dùng.
Morris cho biết rằng công ty đã thử nghiệm "phương pháp đồng thí điểm - con người đồng thời giám sát AI khi cần thiết" trong các tin nhắn được gửi qua bộ phận hỗ trợ ngang hàng của Koko, một nền tảng mà ông mô tả trong video đi kèm là "nơi bạn có thể nhận trợ giúp từ chúng tôi. từ mạng lưới cộng đồng hoặc từ sự giúp đỡ của người khác.”
Morris cho biết: "Chúng tôi làm cho việc giúp đỡ người khác trở nên rất dễ dàng và với GPT-3, chúng tôi đang làm cho mọi quá trình trở nên hiệu suất và hiệu quả hơn với tư cách là một nhà cung cấp sự hỗ trợ".
Theo đó, ChatGPT là một biến thể của GPT-3, tạo văn bản giống con người dựa trên lời nhắc, cả hai đều do OpenAI tạo ra.
Người dùng dịch vụ Koko ban đầu không được thông báo rằng các phản hồi được phát triển bởi BOT và "một khi mọi người biết được các tin nhắn được tạo bởi một AI, thì nó không hiệu quả", Morris viết trên Twitter.
Morris viết trong chủ đề: "Sự đồng cảm được mô phỏng sẽ khiến bạn cảm thấy kỳ lạ, trống rỗng. Máy móc không có kinh nghiệm sống như người nên khi chúng nói thì những câu trả lời như 'nghe nó có vẻ khó' hoặc 'tôi hiểu' có vẻ không được chân thật cho lắm". "Một phản hồi chatbot được tạo ra trong 3 giây, bất kể thanh lịch đến đâu, bằng cách nào đó, bạn sẽ cảm thấy rẻ tiền."
Tuy nhiên, vào hôm sau, Morris đã tweet "một số điều quan trọng cần làm rõ."
"Chúng tôi không ghép nối mọi người để trò chuyện với GPT-3 khi mà họ không biết. (khi nhìn lại, tôi có lẽ nên diễn đạt dòng tweet đầu tiên của mình một cách tốt hơn)," dòng tweet viết.
"Mọi người đều biết về tính năng này và đồng ý tham gia."
Morris cho biết rằng Koko "đã được ứng dụng chat AI khá nhanh chóng." Ông lưu ý rằng các tin nhắn dựa trên AI được "đánh giá cao hơn đáng kể so với tin nhắn do con người tự viết" và thời gian phản hồi giảm 50% nhờ công nghệ này.
Mối Quan Tâm Về Đạo Đức & Pháp Lý
Một số chuyên gia công nghệ và y tế cộng đồng đã phản đối kịch liệt với công ty này trên Twitter, vì cho rằng công ty này đã vi phạm luật “ informed consent law”, một chính sách liên bang bắt buộc người sử dụng dịch vụ phải được đồng ý trước khi tham gia vào các mục đích nghiên cứu.
"Điều này cực kỳ phi đạo đức," tác giả, đồng thời là một nhà chiến lược truyền thông, Eric Seufert đã tweet.
"Chà, tôi sẽ không thừa nhận điều này một cách công khai," Christian Hesketh, người tự mô tả mình trên Twitter là một nhà khoa học lâm sàng, đã tweet hôm thứ Sáu. "Những người tham gia lẽ ra phải đưa ra sự đồng ý và điều này phải được thông qua IRB [hội đồng đánh giá thể chế]."
Trong một tuyên bố với Insider, Morris cho biết công ty "không ghép nối mọi người để trò chuyện với GPT-3" và cho biết tùy chọn sử dụng công nghệ đã bị xóa sau khi nhận ra rằng nó "giống như một trải nghiệm không chân thực".
"Chúng tôi đã mang đến cho những người ủng hộ của mình cơ hội sử dụng GPT-3 để giúp họ có phản hồi tốt hơn", ông nói. "Họ đã nhận được đề xuất - giúp họ có nhiều phản hồi nhanh hơn."
Morris nói với Insider rằng nghiên cứu của Koko được "miễn" tuân theo luật đồng ý có hiểu biết (informed consent law) và trích dẫn nghiên cứu đã xuất bản trước đây của công ty cũng được miễn.
"Mọi cá nhân phải đồng ý sử dụng dịch vụ," Morris nói. "Nếu đây là một nghiên cứu ở trường đại học (không phải vậy, nó chỉ là một tính năng sản phẩm được khám phá), thì nó sẽ thuộc danh mục nghiên cứu 'được miễn trừ'."
Ông tiếp tục: "Điều này không gây thêm rủi ro cho người dùng, không lừa dối và chúng tôi không thu thập bất kỳ thông tin nhận dạng cá nhân hoặc thông tin sức khỏe cá nhân nào (không có email, số điện thoại, ip, tên người dùng, v.v.)."
ChatGPT & Vùng Xám Về Sức Khỏe Tâm Thần

Tuy nhiên, thử nghiệm đang đặt ra câu hỏi về tính đạo đức và những vùng xám xung quanh việc sử dụng chatbot AI trong chăm sóc sức khỏe nói chung, sau khi đã gây ra tình trạng bất ổn trong giới học thuật.
Arthur Caplan, giáo sư đạo đức sinh học tại Trường Y khoa Grossman của Đại học New York, đã viết trong email gửi tới Insider rằng việc sử dụng công nghệ AI mà không thông báo cho người dùng là "hoàn toàn phi đạo đức".
"Sự can thiệp của ChatGPT không phải là tiêu chuẩn chăm sóc," Caplan nói với Insider. "Không có nhóm tâm thần hoặc tâm lý nào xác minh tính hiệu quả của nó hoặc đặt ra những rủi ro tiềm ẩn."
Ông nói thêm rằng những người mắc bệnh tâm thần "yêu cầu sự nhạy cảm đặc biệt trong bất kỳ thử nghiệm nào", bao gồm "việc xem xét chặt chẽ của ủy ban đạo đức nghiên cứu hoặc hội đồng đánh giá thể chế trước, trong và sau khi can thiệp"
Caplan cho biết việc sử dụng công nghệ GPT-3 theo những cách như vậy có thể tác động rộng hơn đến tương lai của nó trong ngành chăm sóc sức khỏe.
Ông nói: “ChatGPT có thể có tương lai giống như nhiều chương trình AI như phẫu thuật bằng robot”. "Nhưng những gì đã xảy ra ở đây có thể sẽ trì hoãn và làm phức tạp thêm tương lai đó."
Morris nói với Insider rằng ý định của anh ấy là "nhấn mạnh tầm quan trọng của con người trong cuộc thảo luận giữa con người và AI."
"Tôi hy vọng việc ứng dụng AI trong chăm sóc sức khỏe tâm thần sẽ không bị chôn vùi bởi việc này," anh nói.
Bài viết được dịch lại từ Insider - Online mental health company uses ChatGPT to help respond to users in experiment — raising ethical concerns around healthcare and AI technology