Yapay zeka sohbet botları, özellikle ChatGPT, zaman zaman “halüsinasyon” olarak adlandırılan yanlış bilgiler üretebiliyor. Yeni araştırmalar, bunun temel sebebinin,...
Yapay zeka sohbet botları, özellikle ChatGPT, zaman zaman “halüsinasyon” olarak adlandırılan yanlış bilgiler üretebiliyor. Yeni araştırmalar, bunun temel sebebinin, sistemlerin bilmediklerinde sessiz kalmak yerine tahmin yapmaya yönlendirilmesi olduğunu gösteriyor.Independent’ın haberine göre, yapay zekada “halüsinasyon” giderek büyüyen bir endişe haline geldi. Modeller akıcı konuşsa da yanlış bilgileri yüksek bir güvenle sunabiliyor. Teknoloji ne kadar ilerlese de, bu sorun en yeni sistemlerde de sürüyor. Uzmanlar, özellikle tıp ve hukuk gibi kritik alanlarda yapay zekanın kullanımının artmasıyla, halüsinasyon sorununa karşı daha kapsamlı araştırma ve önlem çağrısı yapıyor.Kaynak – Oksijen

