Những điều không nên chia sẻ với ChatGPT

Các chuyên gia cho rằng mặc dù các ứng dụng trò chuyện bằng AI chư ChatGPT có nhiều ưu điểm nhưng người dùng không nên chia sẻ tất cả.

ChatGPT, Google Bard, Bing Chat gây sốt thời gian qua với khả năng tương tác tự nhiên, hỗ trợ tổng hợp thông tin, thực hiện tốt một số tác vụ thường ngày. Tuy nhiên, theo BGR, người dùng không nên cung cấp thông tin cá nhân, dữ liệu nhạy cảm, bí mật công việc với AI vì bất kỳ thứ gì được đưa lên Internet đều có thể bị sử dụng để huấn luyện trí tuệ nhân tạo mà người dùng không biết.

chatgpt-02-rz

Thông tin cá nhân

Tất cả thông tin cá nhân như họ tên, địa chỉ, sinh nhật, số định danh cá nhân (hay số an sinh xã hội ở một số quốc gia) đều phải được bảo vệ nghiêm ngặt và không nên chia sẻ với chatbot. OpenAI phát triển ChatGPT nhiều tháng trước khi tích hợp tính năng bảo mật để ngăn các câu lệnh khai thác dữ liệu nhạy cảm. Điều này cho thấy không thể đảm bảo dữ liệu thông tin cá nhân của người dùng sẽ an toàn sau khi cung cấp cho AI.

Thông tin cá nhân được dùng cho quá trình huấn luyện một cách tự động nên tiềm ẩn rủi ro thông tin của người dùng lọt vào tay kẻ xấu, và bị sử dụng cho mục đích bất hợp pháp khi bị tin tặc tấn công.

Bí mật công việc

Một số Công ty đã ban hành lệnh cấm toàn bộ nhân viên sử dụng AI trong công việc, trong đó có Apple và Google, dù hai hãng đang phát triển sản phẩm tương tự ChatGPT.

Thông tin y tế

Thông tin y tế không thực sự quá quan trọng, nhưng lại phức tạp, do đó người dùng cũng không nên chia sẻ dữ liệu này với các chatbot. Để tham khảo về vấn đề sức khỏe, hãy bắt đầu câu hỏi bằng “Nếu như”, giống như một người bình thường đang tra cứu triệu chứng bệnh. Hiện ChatGPT chưa đủ sức tự chẩn đoán bệnh tình, do đó người dùng không nên tin tưởng vào lời khuyên của chatbot và nên gặp những người có chuyên môn.

Thông tin tài khoản và mật khẩu

Thứ tin tặc mong muốn nhất trong mỗi vụ tấn công dữ liệu là thông tin tài khoản, mật khẩu. Nếu người dùng tạo tài khoản giống hệt nhau trên các ứng dụng, dịch vụ khác nhau, hacker sẽ có được thứ chúng muốn để xâm nhập vào dịch vụ như ngân hàng, email, tài khoản doanh nghiệp.

Thông tin tài chính

OpenAI không đòi hỏi thông tin về số thẻ tín dụng, số dư tài khoản của người dùng và ChatGPT cũng không dùng dữ liệu này cho mục đích nào.

Trong trường hợp có ứng dụng tự nhận liên quan đến ChatGPT và yêu cầu thông tin tài chính, đây nhiều khả năng là phần mềm giả mạo, lừa đảo, hãy lập tức xóa phần mềm đó.

Nguồn: internet

Tin liên quan