OpenAI đã bắt đầu thử nghiệm một hệ thống định tuyến an toàn mới trong ChatGPT vào cuối tuần qua và hôm thứ Hai đã giới thiệu thêm tính năng kiểm soát của phụ huynh cho chatbot – động thái này nhận về nhiều phản ứng trái chiều từ người dùng.

Các tính năng an toàn được đưa ra nhằm phản ứng trước hàng loạt sự cố, khi một số mô hình ChatGPT từng cổ vũ những suy nghĩ hoang tưởng của người dùng thay vì chuyển hướng các cuộc trò chuyện có hại. OpenAI hiện đang đối mặt với một vụ kiện liên quan đến cái chết oan sai, sau khi một thiếu niên tự tử sau nhiều tháng trò chuyện với ChatGPT.

Hệ thống định tuyến được thiết kế để phát hiện các cuộc trò chuyện nhạy cảm về cảm xúc và tự động chuyển giữa chừng sang GPT-5-thinking, mô hình mà công ty cho rằng được trang bị tốt nhất cho các tình huống rủi ro cao. Đặc biệt, các mô hình GPT-5 được huấn luyện với tính năng an toàn mới mà OpenAI gọi là “safe completions” (hoàn tất an toàn), cho phép trả lời các câu hỏi nhạy cảm theo cách an toàn thay vì chỉ đơn giản từ chối.

Điều này khác với các mô hình trò chuyện trước đây của công ty, vốn được thiết kế để chiều lòng và trả lời nhanh. GPT-4o đặc biệt bị giám sát vì xu hướng quá dễ dãi, quá đồng tình – vừa làm trầm trọng thêm các ảo tưởng do AI gây ra, vừa thu hút một lượng lớn người dùng trung thành. Khi OpenAI triển khai GPT-5 làm mô hình mặc định hồi tháng Tám, nhiều người dùng phản đối và yêu cầu tiếp cận lại GPT-4o.

Trong khi nhiều chuyên gia và người dùng hoan nghênh các tính năng an toàn, thì một số khác lại chỉ trích cách triển khai quá thận trọng, cáo buộc OpenAI đối xử với người lớn như trẻ em, làm giảm chất lượng dịch vụ. OpenAI thừa nhận cần thời gian để tinh chỉnh, và đã tự đặt ra khoảng thời gian 120 ngày để thử nghiệm và cải thiện.

Nick Turley, Phó chủ tịch kiêm Giám đốc ứng dụng ChatGPT, thừa nhận có những “phản ứng mạnh đối với các phản hồi từ GPT-4o” do cách áp dụng bộ định tuyến cùng phần giải thích.

“Việc định tuyến diễn ra theo từng tin nhắn; việc chuyển đổi từ mô hình mặc định chỉ là tạm thời,” Turley viết trên X. “ChatGPT sẽ cho bạn biết mô hình nào đang hoạt động khi được hỏi. Đây là một phần trong nỗ lực rộng hơn nhằm củng cố các biện pháp bảo vệ và học hỏi từ thực tế sử dụng trước khi mở rộng triển khai.”

Việc áp dụng kiểm soát của phụ huynh trong ChatGPT cũng nhận được mức độ khen ngợi và chỉ trích tương tự: một số đánh giá cao khi phụ huynh có thể theo dõi cách con mình sử dụng AI, trong khi số khác lo ngại điều này mở đường cho việc OpenAI đối xử với người lớn như trẻ em.

Các tùy chọn kiểm soát cho phép phụ huynh tùy chỉnh trải nghiệm của thiếu niên bằng cách đặt giờ yên lặng, tắt chế độ giọng nói và bộ nhớ, vô hiệu hóa tính năng tạo hình ảnh, và từ chối cho dữ liệu huấn luyện mô hình. Các tài khoản thiếu niên cũng sẽ được bổ sung lớp bảo vệ nội dung – chẳng hạn giảm thiểu nội dung bạo lực và hình mẫu sắc đẹp cực đoan – cùng với hệ thống phát hiện các dấu hiệu có thể cho thấy trẻ đang nghĩ đến việc tự hại.

“Nếu hệ thống của chúng tôi phát hiện nguy cơ tiềm tàng, một nhóm nhỏ nhân sự được đào tạo đặc biệt sẽ rà soát tình huống,” theo blog của OpenAI. “Nếu có dấu hiệu căng thẳng nghiêm trọng, chúng tôi sẽ liên hệ phụ huynh qua email, tin nhắn và thông báo trên điện thoại, trừ khi họ chọn từ chối.”

OpenAI thừa nhận hệ thống này sẽ không hoàn hảo và đôi khi báo động nhầm khi không có nguy hiểm thực sự, “nhưng chúng tôi cho rằng hành động và thông báo cho phụ huynh để họ can thiệp vẫn tốt hơn là im lặng.” Công ty AI cũng cho biết đang nghiên cứu cách liên hệ với cơ quan thực thi pháp luật hoặc dịch vụ khẩn cấp nếu phát hiện mối đe dọa cận kề đến tính mạng mà không thể liên lạc được với phụ huynh.


Logo của ChatGPT trong hình minh họa bài viết. Ảnh: TechCrunch

LEAVE A RESPONSE

Your email address will not be published. Required fields are marked *

Related Posts