Tờ The Paper đưa tin, gần đây, trên các nền tảng xã hội Reddit và Twitter, một số người dùng đã chia sẻ rằng họ đã nhìn thấy các bản ghi trò chuyện không thuộc về họ trên chatbot ChatGPT. Người phụ trách ChatGPT cho biết ứng dụng này bị phát hiện có sơ hở, người dùng có thể xem tiêu đề các cuộc hội thoại của người dùng khác bằng ChatGPT.
Theo đài BBC của Anh, kể từ ngày 20/3, một số người dùng ChatGPT bắt đầu thấy các tiêu đề cuộc trò chuyện mà họ chưa từng thực hiện với ChatGPT xuất hiện trong hồ sơ lịch sử của họ.
Kể từ khi ra mắt vào tháng 11 năm ngoái, hàng triệu người đã sử dụng ChatGPT để soạn thảo tin nhắn, làm văn, sáng tác nhạc và thậm chí viết code. Các tương tác của người dùng với ChatGPT được lưu trữ trong cột lịch sử trò chuyện của người dùng để dễ dàng truy cập lại.
Giám đốc điều hành OpenAI Sam Altman cho biết công ty "cảm thấy tồi tệ" về lỗi này và sẽ sớm thực hiện "phân tích hậu kỳ kỹ thuật".
Vào ngày 21/3, đại diện OpenAI thông tin với Bloomberg rằng họ đã vô hiệu hóa ChatGPT trong một thời gian ngắn để sửa lỗi và người dùng không thể truy cập bản ghi trò chuyện thực tế của người dùng khác ngoại trừ tiêu đề.
Tuy nhiên, lỗ hổng này đã gây lo ngại cho người dùng ChatGPT, những người sợ rằng thông tin cá nhân sẽ bị rò rỉ. Theo các báo cáo, lỗ hổng này dường như chỉ ra rằng OpenAI có thể truy cập vào lịch sử trò chuyện của người dùng. Chính sách bảo mật của công ty có nêu, sau khi thông tin nhận dạng cá nhân đã bị xóa, dữ liệu người dùng có liên quan, chẳng hạn như lời nhắc và phản hồi, có thể được sử dụng để đào tạo thêm cho nền tảng.
Giáo sư Amy Webb đến từ Đại học New York chia sẻ với BBC rằng trí tuệ nhân tạo có thể phát triển theo hai hướng trong 10 năm tới.
"Trong kịch bản lạc quan, sự phát triển của trí tuệ nhân tạo (AI) tập trung vào lợi ích chung, thiết kế hệ thống minh bạch và các cá nhân có thể chọn có đưa thông tin công khai của họ trên Internet vào cơ sở tri thức AI hay không. Công nghệ này phục vụ như một công cụ để dự đoán nhu cầu của người dùng và trợ giúp hầu hết mọi nhiệm vụ.
Và trường hợp tồi tệ là trong tương lai, quyền riêng tư dữ liệu sẽ ít đi và quyền lực sẽ tập trung nhiều hơn vào một số công ty, khi đó AI có thể dự đoán sai nhu cầu của người dùng hoặc bóp nghẹt sự lựa chọn của người dùng", bà Webb nêu quan điểm.
Cũng theo nữ giáo sư, chỉ có 20% khả năng kịch bản lạc quan xảy ra và hướng phát triển AI cuối cùng phụ thuộc rất nhiều vào các công ty.
"Họ có làm điều này một cách minh bạch không? Các nguồn thông tin chatbot có bị tiết lộ hay giám sát không? Một yếu tố khác là liệu các chính phủ có thể hành động nhanh chóng để tạo ra các biện pháp bảo vệ pháp lý nhằm hướng dẫn sự phát triển công nghệ AI và ngăn chặn việc lạm dụng nó hay không?
Lịch sử của các chính phủ và các công ty nền tảng xã hội cho thấy rằng điều này không hề lạc quan", bà Webb cho hay.
Hoa Vũ (Theo The Paper)