Theo The Wall Street Journal, OpenAI, tổ chức nghiên cứu đã phát triển GPT-4, đã khuyến cáo Microsoft rằng mô hình này chưa sẵn sàng để ra mắt công chúng và nó có thể gây ra những vấn đề về đạo đức và xã hội. ChatGPT-4 là một mô hình sử dụng học sâu để sinh ra các văn bản có liên quan và đa dạng về các chủ đề và lĩnh vực khác nhau.
Nó có thể sinh nội dung như thơ, truyện, code, tiểu luận, bài hát, chế nhạo người nổi tiếng, v.v. Tuy nhiên, GPT-4 cũng có một số điểm yếu như:
- Nó không có kiến thức thực tế về thế giới hoặc những sự thật về thông tin mà nó viết ra.
- Nó có thể tạo ra những thông tin không chính xác, sai lệch hoặc thậm chí có hại nếu không được hướng dẫn hoặc kiểm tra đúng cách.
- Nó cũng có thể phản ánh và làm tăng những thành kiến và định kiến tồn tại trong dữ liệu được đào tạo.
Đương nhiên, OpenAI sớm đã nhận ra những vấn đề này và đã thực hiện các quy trình để đảm bảo việc sử dụng GPT-4 có trách nhiệm và có đạo đức. Công ty đã giới hạn quyền truy cập vào mô hình hoàn chỉnh và chỉ phát hành một phiên bản thu gọn cho các nhà nghiên cứu và nhà phát triển được lựa chọn.
Ngoài ra, OpenAI cũng đã triển khai các biện pháp bảo vệ như bộ lọc, cơ chế giám sát của con người và cơ chế phản hồi để theo dõi và kiểm soát kết quả đầu ra của GPT-4.
Microsoft phớt lờ lời cảnh báo
Tuy nhiên, Microsoft, một trong những nhà đầu tư và đối tác lớn của OpenAI, được cho là đã không tuân theo những hạn chế này và có được quyền truy cập vào mô hình hoàn chỉnh. Hãng đã tích hợp GPT-4 vào chế độ trò chuyện Bing, cho phép người dùng tương tác với công cụ tìm kiếm theo cách đàm thoại.
Microsoft cho rằng tính năng này có thể cải thiện trải nghiệm người dùng và cung cấp nhiều phản hồi hấp dẫn và nhiều thông tin hơn. Nhưng một số chuyên gia và người dùng đã bày tỏ mối lo ngại về rủi ro và tác hại tiềm ẩn của việc sử dụng GPT-4 trong Bing Chat mà không được kiểm tra và đánh giá thích hợp.
Họ cho rằng GPT-4 có thể sinh ra thông tin sai lệch hoặc gây hiểu nhầm, thao túng hoặc lừa dối người dùng hoặc xúc phạm hoặc gây hại cho một số nhóm hoặc cá nhân.
Hiện tại Microsoft chưa có phản hồi chính thức về báo cáo hoặc lời chỉ trích. Công ty chỉ cam kết đảm bảo an toàn và chất lượng của các sản phẩm và dịch vụ của mình. Microsoft cũng cho biết rằng họ đang hợp tác chặt chẽ với OpenAI để giải quyết mọi vấn đề hoặc thách thức có thể phát sinh từ việc sử dụng ChatGPT-4 trong Bing chat.