Các chatbot AI
như ChatGPT đã trở thành một công cụ phổ biến với hàng triệu người dùng ngày
nay. Tuy nhiên, các chuyên gia cảnh báo rằng việc chia sẻ thông tin cá nhân với
chatbot có thể dẫn đến rủi ro về quyền riêng tư.
Dưới đây là năm loại thông
tin người dùng nên tránh cung cấp cho ChatGPT.
1. Thông tin định danh cá nhân quan trọng
Chi tiết cần tránh: Số chứng minh nhân dân/căn cước
công dân, số hộ chiếu, địa chỉ nhà riêng, ngày tháng năm sinh đầy đủ, số điện
thoại cá nhân.
Lý do cảnh giác: Những thông tin này là chìa khóa để
xác định danh tính của người dùng. Việc chia sẻ chúng có thể tạo điều kiện cho
hành vi lạm dụng danh tính, giả mạo giấy tờ, hoặc thậm chí là các hoạt động
gian lận khác, gây ra những hậu quả nghiêm trọng về mặt pháp lý và tài chính.
2. Dữ liệu tài chính nhạy cảm:
Chi tiết cần tránh: Số tài khoản ngân hàng, số thẻ tín
dụng/debit, mã CVV/CVC, mã PIN, thông tin giao dịch ngân hàng, thu nhập cá
nhân.
Lý do cảnh giác: ChatGPT không được
thiết kế để xử lý thông tin tài chính và không có các biện pháp bảo mật chuyên
dụng cho loại dữ liệu này. Việc tiết lộ những chi tiết này có thể dẫn đến nguy
cơ bị đánh cắp tiền bạc, lộ thông tin thanh toán và các rủi ro tài chính khó
lường.
3. Thông tin đăng nhập tài khoản trực tuyến:
Chi tiết cần tránh: Tên người dùng (username), mật
khẩu của bất kỳ tài khoản trực tuyến nào (email, mạng xã hội, ngân hàng, mua
sắm...).
Lý do cảnh giác: Đây là cánh cửa để kẻ xấu xâm nhập
vào các tài khoản cá nhân của người dùng. Nếu những thông tin này bị lộ, tin
tặc có thể dễ dàng truy cập trái phép, đánh cắp dữ liệu, thực hiện các hành vi
lừa đảo hoặc gây ra những thiệt hại khác.
4. Hồ sơ y tế cá nhân
Chi tiết cần tránh: Kết quả xét nghiệm, chẩn đoán
bệnh, tiền sử bệnh án, thông tin về thuốc đang sử dụng, tình trạng sức khỏe cá
nhân.
Lý do cảnh giác: Thông tin y tế là vô cùng riêng tư và
nhạy cảm. ChatGPT không phải là một chuyên gia y tế và không tuân thủ các tiêu chuẩn bảo mật nghiêm ngặt dành
cho thông tin sức khỏe (như HIPAA). Việc chia sẻ có thể
dẫn đến những hiểu lầm, đánh giá sai lệch hoặc thậm chí bị lợi dụng.
5. Thông tin bí mật và nội bộ của tổ chức
Chi tiết cần tránh: Dữ liệu nội bộ công ty, chiến lược
kinh doanh, kế hoạch sản phẩm, thông tin khách hàng bí mật, tài liệu chưa công
bố, mã nguồn phần mềm.
Lý do cảnh giác: Việc tiết lộ những thông tin này có
thể vi phạm các chính sách bảo mật của công ty, gây tổn hại đến lợi thế cạnh
tranh, ảnh hưởng đến uy tín và thậm chí dẫn đến các vấn đề pháp lý nghiêm
trọng.
ChatGPT và các mô hình AI tương tự thường lưu trữ lịch
sử trò chuyện để cải thiện hiệu suất. Điều này đồng nghĩa với việc bất kỳ thông
tin nào người dùng cung cấp đều có khả năng được lưu giữ và xem xét trong tương
lai. Do đó, hãy luôn cẩn trọng và suy nghĩ kỹ trước khi chia sẻ bất kỳ thông
tin cá nhân nào, đặc biệt là những loại dữ liệu nhạy cảm đã được
liệt kê ở trên. Chỉ nên tương tác với chatbot bằng những thông tin không mang
tính riêng tư hoặc có thể gây rủi ro nếu bị tiết lộ.
Theo https://antoanthongtin.gov.vn/tin/canh-bao-thong-tin-khong-nen-chia-se-voi-chatbot-ai
Thanh tra tỉnh