Google yêu cầu nhân viên không nhập thông tin bí mật vào chatbot AI

Để bảo vệ thông tin, Google cảnh báo nhân viên không nhập thông tin nhạy cảm vào chatbot AI và tránh sử dụng trực tiếp mã máy tính do chatbot tạo ra.

Nhân viên Google phải hạn chế sử dụng trực tiếp mã do chatbot AI tạo ra

Google và công ty mẹ của Youtube, Alphabet, vừa ban hành thông báo yêu cầu nhân viên không nhập thông tin nhạy cảm vào chatbot AI để bảo vệ thông tin.

Theo các nhà nghiên cứu, các chatbot AI như ChatGPT và Bard, có khả năng thu thập thông tin và sử dụng trí tuệ nhân tạo để phản hồi và trò chuyện với người dùng, có thể tái tạo dữ liệu mà chương trình sử dụng trong quá trình đào tạo, làm tăng nguy cơ rò rỉ thông tin.

Nhân viên Google phải hạn chế sử dụng trực tiếp mã do chatbot AI tạo ra

Google's Bard chatbot đã được triển khai tại 180 quốc gia và hoạt động bằng 40 ngôn ngữ như một nền tảng cho sự sáng tạo. Google cho biết Bard có thể đưa ra các gợi ý mã không mong muốn nhưng vẫn hữu ích cho các lập trình viên. Nhóm kỹ sư của công ty công nghệ này đang cố gắng minh bạch về những hạn chế của công nghệ.

Nhân viên Google phải hạn chế sử dụng trực tiếp mã do chatbot AI tạo ra

Alphabet cũng cảnh báo các kỹ sư của mình tránh sử dụng trực tiếp mã máy tính mà chatbot có thể tạo ra. Sự thận trọng của Google cũng phản ánh các tiêu chuẩn bảo mật của các công ty, đặc biệt là cảnh báo nhân viên về việc sử dụng các chương trình trò chuyện giữa AI với con người.

Nhân viên Google phải hạn chế sử dụng trực tiếp mã do chatbot AI tạo ra

Một cuộc khảo sát do trang web mạng Fishbowl thực hiện cho thấy 43% chuyên gia trong số 12.000 người được hỏi đã sử dụng ChatGPT hoặc các công cụ AI khác vào tháng 1 mà không thông báo cho người quản lý của họ.

Hãy truy cập Sex Shop Online.com mỗi ngày để đọc thêm nhiều thông tin mới nhé!