Doanh nghiệp gặp rủi ro khi nhân viên lén dùng ChatGPT
Xe - Công nghệ - Ngày đăng : 18:51, 02/05/2023
Việc Big Tech đầu tư lớn vào trí tuệ nhân tạo (AI) và chatbot đã khiến những người phụ trách an toàn thông tin trong doanh nghiệp phải đau đầu. Theo CNBC, AI đang thẩm thấu vào công sở và các giám đốc an toàn thông tin cần phải tiếp cận công nghệ này một cách cẩn trọng, chuẩn bị sẵn biện pháp phòng vệ.
Công nghệ đứng sau GPT là mô hình ngôn ngữ lớn (LLM). Không phải công ty nào cũng sở hữu GPT riêng, vì thế cần phải giám sát cách nhân viên sử dụng nó. Michael Chui, đối tác tại Viện McKinsey Global, nhận định mọi người sẽ dùng AI tạo sinh nếu cảm thấy nó hữu dụng. Ông so sánh việc đó như dùng máy tính hay điện thoại trong công việc.
Ngay cả khi bị cấm đoán, nhân viên vẫn sẽ lén lút tìm những cách khác nhau để tận dụng. Trong lịch sử, đã có nhiều công nghệ hấp dẫn đến mức mọi người sẵn sàng trả giá để được dùng. Chẳng hạn, họ mua điện thoại di động trước khi doanh nghiệp cung cấp thiết bị cá nhân cho họ, theo Chui.
Các giám đốc an toàn thông tin, vốn đã phải đối phó với nguy cơ tấn công mạng, nay có thêm một nỗi lo khác với AI và GPT. Theo Chui, các công ty có thể xin cấp phép sử dụng một nền tảng AI để theo dõi những gì nhân viên đang tiết lộ với chatbot và bảo đảm những thông tin họ chia sẻ được bảo vệ.
“Đứng ở vai trò doanh nghiệp, bạn không muốn nhân viên của mình nhắc (prompt) thông tin bí mật với chatbot công khai”, Chui nói. Do đó, cần phải áp dụng các biện pháp kỹ thuật như phần mềm bản quyền và ký thỏa thuận pháp lý về việc dữ liệu của bạn được chuyển đi đâu.
Theo Sameer Penakalapati, CEO Ceipal, một lựa chọn an toàn là công ty phát triển GPT riêng hoặc thuê các nhà phát triển GPT làm phiên bản riêng. Nếu tự tạo GPT, phần mềm sẽ có chính xác các thông tin mà doanh nghiệp mong muốn nhân viên được tiếp cận. Họ cũng có thể bảo vệ những thông tin mà nhân viên nạp vào. Dù chọn giải pháp nào, cần phải lưu ý về dữ liệu đầu vào của GPT.
(Theo CNBC)