Dolar 34,4764
Euro 36,4423
Altın 2.951,48
BİST 9.375,01
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
İstanbul 18°C
Parçalı Bulutlu
İstanbul
18°C
Parçalı Bulutlu
Cum 18°C
Cts 9°C
Paz 10°C
Pts 11°C

Yapay zeka yoldan çıkarsa ne olur?

Yapay zeka fiziksel zarar verme ve gerçek dünyayı etkileme yeteneğini kazanmaya başladıkça sorulması gereken sorular artıyor

Yapay zeka yoldan çıkarsa ne olur?
24 Mayıs 2024 10:54
124

Yapay zekanın (AI) okul ödevleri için basit sohbet sorularını yanıtlamasını, New York metrosundaki silahları tespit etmeye çalışmasını gördük; haberdar olduk.

Şimdi ise deepfake ile çocuk cinsel istismar içeriği oluşturmak için kullanan bir suçlunun mahkumiyetinde suç ortağı olarak görülmesine şahit olduk.  Dijital güvenlik şirketi ESET, yapay zeka ilerlemeye devam ederken yanlış yöne gitmesini önlemek için yapılan çalışmaları inceledi, dikkat edilmesi gerekenleri paylaştı. 

ESET, yapay zekayı güvenlik bağlamında yıllardır kullanıyor. Kısmen kritik şeyleri yanlış anladığı için yapay zekanın sihirli bir değnek olmadığı konusunda uyarılarını paylaşmıştı.  Bununla birlikte “sadece ara sıra” kritik şeyleri yanlış yapan güvenlik yazılımları, güvenlik ekiplerinin gereksiz yere çabalamasını tetikleyen devasa yanlış pozitifler yayarak ya da yapay zekanın zaten bildiği kötü amaçlı yazılımlardan “yeterince farklı” görünen kötü amaçlı bir saldırıyı gözden kaçırarak oldukça olumsuz bir etkiye sahip olacaktır. Bu nedenle kontrol ve denge sağlamak için ESET yapay zekayı bir dizi başka teknolojiyle katmanlandırıyor. Bu şekilde eğer yapay zekanın cevabı dijital halüsinasyona benziyorsa onu diğer teknoloji yığınıyla birlikte geri çekebiliyor.

Düşmanlar çok fazla saf AI saldırısı başlatmamış olsa da özellikle kimlik avı ve şimdi de sosyal mühendislik çabalarını süper boyuta taşımak için kimlik avından ses ve görüntü klonlamada daha etkili olmak adına saldırı zincirindeki bağlantıları otomatikleştiren düşmanca AI’yi akla getirmek gerekir. Kötü aktörler dijital olarak güven kazanıp yapay zeka tarafından oluşturulan verileri kullanarak sistemleri kimlik doğrulaması yapmaları için kandırabilirse bu, kuruluşunuza girmek ve özel istismar araçlarını manuel olarak başlatmak için yeterlidir. Bunu durdurmak için satıcılar çok faktörlü kimlik doğrulama katmanını kullanabilir. Böylece saldırganların sadece bir ses veya parola yerine birden fazla kimlik doğrulama yöntemine ihtiyacı olur. Bu teknoloji şu anda yaygın olarak kullanılıyor olsa da kullanıcılar tarafından yeterince tercih edilmiyor. Bu, kullanıcıların kendilerini ağır bir yük veya büyük bir bütçe olmadan koruyabilmelerinin basit bir yoludur.

Bütün suç yapay zekanın mı?

Yapay zeka mı hatalı? AI’nin yanlış anlamasının gerekçesi sorulduğunda insanlar esprili bir şekilde “karmaşık” yanıtını veriyordu. Ancak AI fiziksel zarar verme ve gerçek dünyayı etkileme yeteneğine yaklaştıkça bu artık tatmin edici ve yeterli bir yanıt olmamaya başladı. Örneğin, AI destekli sürücüsüz bir araba kaza yaparsa “sürücü” mü ceza alır yoksa üretici mi? Bu, ne kadar karmaşık ve anlaşılmaz olursa olsun bir mahkemeyi tatmin edecek bir açıklama değil.

Peki ya gizlilik? GDPR kurallarının, mahremiyet merceğinden bakıldığında teknolojinin vahşileşmesini engellediğini gördük. Elbette AI’den türetilmiş, dilimlenmiş ve doğranmış orijinal eserlerin kazanç için türevler üretmesi mahremiyet ruhuna aykırıdır ve bu nedenle koruyucu yasaları tetikleyecektir. Ancak AI’nin türev olarak kabul edilmesi için tam olarak ne kadarını kopyalaması gerekir ve mevzuatı atlatacak kadar kopyalarsa ne olur? Ayrıca yasal olarak daha iyi test edilmesi yıllar alacak yetersiz içtihat hukuku ile bunu mahkemede kim, nasıl kanıtlayacak? Gazete yayıncılarının Microsoft ve OpenAI’ye, makalelerin yüksek teknolojiyle kaynak gösterilmeden yeniden üretildiğini düşündükleri için dava açtıklarını görüyoruz; davanın sonucu merak konusu, belki de gelecekteki yasal işlemlerin bir habercisi olacak. 

AI bir araç ve genellikle iyi bir araç ancak büyük güç büyük sorumluluk getirir. Şu anda AI sağlayıcılarının sorumluluğu, yeni bulduğumuz gücün kötüye gitmesi durumunda olabileceklerin çok gerisinde kalıyor.

Kaynak: (BYZHA) Beyaz Haber Ajansı

ETİKETLER: , , , ,
YORUMLAR

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.