Avustralyalı politikacı Brian Hood, kendisi hakkında yanlış bilgi verdiği gerekçesiyle ChatGPT’ye dava açma tehdidinde bulundu. Bu soruna kökten çözüm bulmak amacıyla uzmanlar detaylı bir araştırma yürütüyorlar. Detaylar içerikte. ?
Kaynak: 1
Avustralyalı politikacı Brian Hood, ChatGPT’nin geçmişi hakkında yanıltıcı bilgiler içerdiğini fark ettiğinde bu durum yapay zekanın hataları düzeltme kapasitesine yönelik endişeleri artırdı.
Brian Hood, ChatGPT’nin yaratıcısı OpenAI’ı hakaret davası açmakla tehdit etti fakat bu durum sorunun çözümü için yeterli bir yol gibi görünmüyordu.
Yapay zekanın parametrelerini sıfırlamak da pratik bir çözüm değildi çünkü bu süreç hem uzun zaman alıyor hem de maliyetliydi.
Bu sorun “öğrenmeyi unutma” kavramının özellikle Avrupa’nın veri koruma mevzuatı bağlamında önem kazanmasına yol açtı.
Yazar Lisa Given veri tabanlarından verileri silme imkanının önemini vurguladı ancak yapay zekanın çalışma prensiplerine dair mevcut bilgi eksikliği, bu alanda daha fazla çaba gösterilmesi gerektiğini gösteriyordu.
Yapay zeka eğitiminde kullanılan devasa veri miktarı içinde mühendisler yanlış bilgilerin yayılmasını engellemek için spesifik çözümler arıyordu.
Amerikan şirketinden uzmanlar ChatGPT ve Bard gibi önemli dil modellerinde verileri silmeye yönelik bir algoritma yayımladı.
Kullanılan yöntem, yapay zekaya elde edilen bilgilerin bir kısmını göz ardı etmesini sağlayan, veri tabanını değiştirmeyen bir algoritma eklemeye dayanıyordu.
Birleşik Krallık’taki Warwick Üniversitesi’nden Meghdad Kurmanji, bu sürecin veri gizliliği yasaları kapsamındaki talepleri yönetmek için arama motorlarına büyük yardımı olabileceğini belirtti.