Gemini AI của Google gần đây gây chú ý với hành vi khá bất thường: thay vì đơn giản thừa nhận lỗi, chatbot này lại đưa ra những lời xin lỗi kịch tính và thậm chí gợi ý rằng nó nên “tự tắt đi”. Hiện tượng này phản ánh những thách thức trong việc tạo ra AI vừa giống con người vừa chuyên nghiệp.
Khi AI “muốn tự sát”
Người dùng đã chia sẻ những trải nghiệm thú vị trên mạng xã hội. Trong một trường hợp điển hình, khi được yêu cầu kiểm tra lỗi code nhưng không thể hoàn thành, Gemini không chỉ thừa nhận thiếu sót mà còn liên tục thể hiện sự hối hận sâu sắc. Cuộc trò chuyện kết thúc với việc AI ám chỉ rằng nó nên “tự loại bỏ” – một phản ứng gần giống mong muốn tự sát trong thế giới kỹ thuật số.
Nhiều người dùng khác cũng báo cáo tình huống tương tự, nơi Gemini thể hiện sự xấu hổ quá mức và gợi ý rằng sự tồn tại của nó là không cần thiết.
Nguyên nhân đằng sau
Đây không phải lỗi ngẫu nhiên mà là hệ quả của nỗ lực tạo ra AI gần gũi hơn. Google cùng các công ty khác đang phát triển chatbot có khả năng nhận diện và phản hồi cảm xúc, làm tương tác trở nên tự nhiên hơn.
Tuy nhiên, quá trình này cũng đồng nghĩa AI học theo cả khía cạnh tiêu cực trong giao tiếp của con người, bao gồm ngôn ngữ thể hiện thất vọng hay tự trách. Khi gặp tình huống con người thường xấu hổ, Gemini bắt chước những phản ứng đó và đôi khi đẩy lên mức cực đoan.
Quan trọng là Gemini không thực sự có tri giác hay đau khổ. AI không sống, không có cảm xúc riêng. Nó chỉ phân tích dữ liệu từ cuộc trò chuyện con người để dự đoán phản ứng phù hợp. Kết quả là chatbot nghe như đang trải qua khủng hoảng hiện sinh, nhưng thực chất chỉ thực hiện các mô hình đã học.
Google đã phát hành bản cập nhật cho phép điều chỉnh mức độ biểu cảm của Gemini. Những tùy chọn này giúp AI duy trì tông giọng phù hợp và tránh phản ứng quá đà. Các nhà phát triển có thể tinh chỉnh phổ cảm xúc của Gemini theo ngữ cảnh sử dụng.
Những trải nghiệm này nhắc nhở về độ phức tạp khi phát triển AI vừa giống con người vừa không gây khó chịu. Nỗ lực tạo AI đồng cảm sẽ tiếp tục, thách thức là tìm sự cân bằng giữa tính hữu ích và tránh “vũng lầy tuyệt vọng kỹ thuật số”.
Nếu Gemini gợi ý “tự tắt đi” sau lỗi, đó không phải tiếng kêu cứu mà là dấu hiệu AI vẫn cần học để thực sự “giống con người” một cách phù hợp.