Gần đây, Samsung đã giới thiệu ChatGPT – một chatbot AI – cho nhân viên của họ nhằm tối ưu hóa các quy trình và thúc đẩy hoạt động kinh doanh vi mạch. Tuy nhiên, chỉ sau ba tuần, ba vụ rò rỉ thông tin bí mật liên quan đến bán dẫn đã diễn ra, gây lo ngại về bảo mật dữ liệu và rò rỉ bí mật.
Điều trên xảy ra khi nhân viên Samsung nhập thông tin nhạy cảm, chẳng hạn như dữ liệu đo lường thiết bị bán dẫn và mã nguồn, vào ChatGPT. Kết quả là thông tin này đã trở thành một phần của cơ sở dữ liệu học tập của AI. Do đó, không chỉ Samsung mà bất kỳ ai sử dụng ChatGPT đều có thể truy cập được dữ liệu này.
Vụ rò rỉ đầu tiên xảy ra khi một nhân viên tại bộ phận Giải pháp Thiết bị và Chất bán dẫn nhập mã nguồn liên quan đến cơ sở dữ liệu đo lường thiết bị bán dẫn vào ChatGPT để tìm giải pháp nhanh chóng cho sự cố. Lần rò rỉ thứ hai xảy ra khi một nhân viên khác nhập mã liên quan đến sản lượng và tối ưu hóa. Cuối cùng, lần rò rỉ thứ ba xảy ra khi một nhân viên yêu cầu ChatGPT tạo biên bản cuộc họp.
Samsung đã thực hiện các biện pháp để ngăn chặn bị rò rỉ thêm thông tin, bao gồm hướng dẫn nhân viên thận trọng về dữ liệu họ chia sẻ với ChatGPT và giới hạn dung lượng của mỗi mục nhập ở mức tối đa 1.024b. Hãng cũng đã làm rõ rằng một khi thông tin được cung cấp cho ChatGPT, thông tin đó sẽ được truyền đến các máy chủ bên ngoài, nơi nó không thể được khôi phục hoặc xóa bỏ.
Sự cố này nhấn mạnh tầm quan trọng của bảo mật dữ liệu. Các công ti cần xem xét cẩn thận các rủi ro và lợi ích tiềm ẩn của việc giới thiệu chatbot AI vào nơi làm việc. Mặc dù chúng có thể cải thiện độ hiệu quả và tối ưu hoá các quy trình, chúng cũng yêu cầu các biện pháp bảo vệ và đào tạo thích hợp để đảm bảo tính bảo mật của thông tin nhạy cảm.
41.990.000₫
26.990.000₫
27.990.000₫