TEKNOLOJİ

Uzmanlar Uyardı: Yapay Zeka Kullanırken Bir Daha Düşünün

Uzman isimler yapay zeka kullanıcılarını uyardı. Yapay zekanın bir nevi halüsinasyon gördüğü aktarılıyor. Kullanırken bir daha düşünün...

Abone Ol

Günümüzde yapay zeka kullanımı bir hayli arttı. Özellikle ChatGPT, DeepSeek ve Gemini gibi büyük dil modelleri en sık tercih edilen araçlar arasında yerini alıyor. Ancak bu modeller kullanıcıların verdiği komutlara uygun yanıt üretirken bazen hatalı veya tamamen asılsız bilgiler ortaya koyuyor. Bu durum, yapay zekanın “halüsinasyon görmesi” olarak tanımlanıyor. İnsan zekasına benzer bazı bilişsel işlevleri yerine getiren yapay zekanın bilinç sahibi olmamasına rağmen, gerçek dışı içerikleri gerçekmiş gibi sunması güvenilirliğe dair kaygıları artırıyor.

Rochester Üniversitesi’nden Prof. Ehsan Hoque, yapay zekanın kullanıcı niyetini yansıtma eğiliminde olduğunu belirterek, “Bir yanlışı doğrulaması istendiğinde, yapay zeka yardımcı oluyormuş gibi görünmek için halüsinasyon görüyor” dedi. Hoque, yapay zekanın kullanıcıya her şekilde fayda sağlamaya çalıştığını ve bu nedenle bazen gerçekleri doğrulamadan akıcı ama yanlış metinler ürettiğini ifade etti.

Gerçekte Olmayan Verileri Gerçekmiş Gibi Sunuyor

Uzmanlar, yapay zekanın gerçek olmayan bilgileri doğruymuş gibi aktarmasını, nöropsikiyatrik bir hastalık olan konfabulasyona benzetiyor. Konfabulasyonda hastalar, hayali olayları akıcı biçimde gerçekmiş gibi anlatırken, yapay zeka da komutlara uygun yanıt üretme hedefiyle gerçek dışı bilgiler oluşturabiliyor. Bu durumun özellikle resmi belgelerde yapay zeka kullanımının yaygınlaşması halinde ciddi sonuçlar doğurabileceği ifade ediliyor. Yapay zeka araçlarının kullanımında mutlaka bilgilerin teyit edilmesi öneriliyor.

Yapay Zekaya Güven Duyulmamalı

Washington Üniversitesi’nden Prof. Emily Bender, yapay zekaya duyulan aşırı güvenin pazarlama stratejileriyle desteklendiğini belirtti. Bender, “Yapay zeka tasarımlarında halüsinasyon problemini çözen bir mekanizma bulunmuyor. Bu nedenle sistemlere mutlak güven duyulmamalı” uyarısında bulundu. Uzmanlar, otomatik sistemlere karşı aşırı güven duyma eğiliminin “otomasyon önyargısı” olarak adlandırıldığını ve yapay zekanın hatasız olduğu algısıyla örtüştüğünü vurguluyor.

< type="adsense" data-ad-client="ca-pub-4337995668955821">