Samsung’a ChatGPT şoku: Hassas datalar kazara sızdırıldı
ChatGPT, yüzeysel olarak bakıldığında bir dizi iş için yararlı olabilecek bir araç üzere görünebilir, lakin ondan değerli notları özetlemesini ya da çalışmanızda kusur olup olmadığını denetim etmesini istemeden evvel, paylaştığınız her şeyin sistemi eğitmek için kullanılabileceğini ve hatta tahminen de başka kullanıcılara verdiği karşılıklar biçiminde geri dönebileceğini hatırlamakta yarar var. En azından birtakım Samsung çalışanları, bunu en acı yoldan öğrendi.
The Economist Korea’ya nazaran, Samsung’un yarı iletken kısmı mühendisleri bir müddettir ChatGPT’yi kullanıyorlar. Lakin bu süreçte çalışanların en az 3 defa zımnî bilgileri ChatGPT’ye sızdırmış olduğu ortaya çıktı. Bir çalışanın ChatGPT’den hassas veritabanı kaynak kodunda kusur olup olmadığını denetim etmesini istediği, bir başkasının kod optimizasyonu talep ettiği ve bir 3’üncüsünün de ChatGPT’ye kaydedilmiş bir toplantıyı aktararak tutanak oluşturmasını istediği bildirildi.
Raporlar, Samsung’un bu güvenlik yanlışlarını öğrendikten sonra, çalışanların ChatGPT istemlerinin uzunluğunu 1 kilobayt yahut 1024 karakterlik metinle sınırlayarak gelecekteki mümkün sızıntıların kapsamını sınırlamaya çalıştığını gösteriyor. Şirketin ayrıyeten kelam konusu 3 çalışan için soruşturma başlattığını ve misal aksilikleri önlemek için kendi sohbet robotunu oluşturmak istediği söyleniyor.