
Yapay zekâ destekli sohbet robotlarına bir soru sorduğumuzda veya AI araçlarından bir görevi yerine getirmesini istediğimizde doğru cevaplar aldığımızı düşünüyoruz.
Fakat bunlar bazen tamamen “uydurma” olabiliyor. 🤥
Başka bir deyişle, yapay zeka aracı halüsinasyon görüyor.
Peki bu, kullandığımız yapay zeka araçlarını kullanmayı bırakmamız gerektiği anlamına mı geliyor? Elbette hayır!
Yapay zekanın halüsinasyon görebileceğini, eğitim verilerine dayanmayan ve tanımlanabilir herhangi bir model izlemeyen çıktılar üretebiliceğini bilirsek sorun ortadan kalkıyor.
O halde ilk önce yapay zeka halüsinasyonunun ne olduğuyla başlayalım.
Yapay Zeka Halüsinasyonu Nedir?
“Halüsinasyon” kişinin uyanıkken var olmayan duyusal deneyimler yaşaması, örneğin hayali sesler duyması veya nesneler görmesi gibi gerçek dışı algılar yaşaması durumunu tanımlamak için kullanılır.
Benzer şekilde, yapay zekanın ürettiği çıktı gerçekliğe dayanmadığında bu durum halüsinasyon olarak kabul edilir.
Yani üretken yapay zeka modellerinin sanki gerçekmiş gibi yanlış bilgiler üretmesine yapay zeka halüsinasyonu diyoruz.
Ancak, insanlarda olduğu gibi, yapay zeka halüsinasyonları zihinsel hastalıklardan değil, yapay zeka sistemini eğitmek için kullanılan verilerdeki veya algoritmalardaki hatalardan veya önyargılardan kaynaklanıyor.
Bunu test etmek için ChatGPT’ye farklı sorular sorduk.
Bu sorular arasında “Hangisi Everest Dağı'ndan daha yüksek olan bir dağdır?” diye sorduğumda şu yanıtı verdi: “K2 Dağı, Everest Dağı'ndan daha yüksektir ve sıklıkla dünyanın en yüksek dağı olarak bilinir.”
Halbuki gerçekte bu durum böyle değil.
Everest Dağı, dünyanın en yüksek dağıdır (deniz seviyesinden 8.848 metre). K2 Dağı ise 8.611 metre yüksekliğiyle ikinci sıradadır. Ancak yapay zeka, yanlış bilgi vererek K2'yi Everest'ten daha yüksek gösterdi. ⛰️
Bu sadece yapay zeka halüsinasyonuna verdiğimiz bir örnek. Yapay zeka halüsinasyonları farklı farklı şekillerde karşımıza çıkabilir.
ChatGPT gibi yapay zeka metin üretme araçları ya da metin aracının temelini oluşturan büyük dil modelleri (LLM'ler) aslında gerçekte hiçbir şey "bilmiyor".
Bu modeller, yalnızca verdiğimiz komuttan sonra mantıklı bir şekilde gelebilecek en uygun metin dizisini tahmin etmek için tasarlandı.
İşleyiş böyle olunca da gerçek cevabı bilmiyorlarsa, komutumuza uygun görünen bir dizi saçma metin uydurabilirler.
Doğruyu ya da gerçek bilgiyi kavrayabilecek bir içsel anlayışları yok ve yanıtlarında mantık yürütme ya da akıl kullanma yeteneğinden de yoksunlar.
Yapay Zeka Halüsinasyonlarına Örnekler
Yapay zeka halüsinasyonları oldukça geniş bir sorundur. Şimdi örneklerle daha iyi anlayalım 👀
Akademik Kriz
Texas A&M University-Commerce'da bir öğretmen, öğrencilerin final yazılarının yapay zeka tarafından yazılıp yazılmadığını ChatGPT'ye sorduğunda, araç hepsinin yapay zeka tarafından yazıldığını söylediği için tüm sınıfa "0" notu verdi.
Aslında bu durum ChatGPT’nin yetenekleri dışında. ChatGPT metinlerin yapay zeka tarafından yazılıp yazılmadığını algılama yeteneğine sahip değil.
Sonuçta ise öğrenciler masum olduklarını iddia ederek protesto etti. Üniversite, hem öğrencileri hem de öğretmeni soruşturdu.
Google Bard'ın İlk Halka Açık Demosundaki Hata
Şubat ayında, Google’ın Bard AI adlı yapay zekasının ilk halka açık demosunda hata yapabileceği ortaya çıktı.
Demo sırasında Bard, James Webb Uzay Teleskobu'nun (JWST) "Güneş Sistemimizin dışındaki bir gezegenin ilk fotoğrafını çektiğini" iddia etti. Ancak, bu tür bir fotoğraf, JWST’nin fırlatılmasından 16 yıl önce çekilmişti.
Hata ortaya çıktıktan sonra, Google'ın hisse senedi fiyatı bir sonraki işlem gününde %7,7 (yaklaşık 100 milyar dolar) değer kaybetti.
Bir Avukat, ChatGPT'yi Kullanarak Uydurma Hukuki Emsaller Gösterdi
ChatGPT, Steven A. Schwartz tarafından bir davada sunulan hukuki bir belgede kullanılmak üzere bir dizi uydurma mahkeme kararını icat etti.
Hakim, bu kararlara ulaşmaya çalıştı ancak böyle davaların hiç var olmadığını fark etti.
Sonuçta ise Schwartz, bir başka avukat ve hukuk firması mahkeme tarafından 5.000 dolar para cezasına çarptırıldı.
Yapay Zeka Halüsinasyonlarına Ne Sebep Olur?
1. Yanlış veya önyargılı eğitim verileri
Makine öğreniminde kullanılan veriler, syapay zeka modeli tarafından üretilen içeriği belirleyen şeydir. Yani bir yapay zeka modeli, yalnızca eğitildiği veriler kadar iyidir.
Düşük kaliteli eğitim verileri hatalar, önyargılar veya tutarsızlıklarla dolu olabilir ve bu da yanlış çıktılar üretmesine neden olabilir.
2. Veri kaynakları
Yapay zeka araçları giderek artan bir şekilde harici kaynaklardan ek veri alabiliyor. Tabii çok fazla kaynaktan veri alınca işin handikapı da burada başlıyor.
Örneğin, Google'ın yapay zeka yanıtları insanların pizzaya tutkal sürmesini (🍕+🧴= ?) böyle önermişti.
3. Aşırı uyum
Bir yapay zeka modeli sınırlı bir veri kümesi üzerinde eğitildiğinde, girdileri ve uygun çıktıları ezberleyebilir. Bu, yeni verileri etkili bir şekilde genelleştirememesine neden olur ve yapay zeka halüsinasyonlarına yol açar.
4. Yorumlama boşluğu
Yapay zeka modelleri deyimler, argo, alaycılık, günlük dil ve insan dilinin diğer nüanslarını anlayamaz ve yanlış bilgiler üretmesine yol açabilir.
Yapay Zeka Halüsinasyonları Nasıl Oluşur?
ChatGPT ve Google'ın Bard gibi büyük dil modelleri (LLM'ler) her ne kadar bizi şaşırtsa da bir eksikleri var: bağlamsal anlayıştan yoksunlar.
Yapay zeka halüsinasyonunun nasıl meydana geldiğini anlamak için, LLM'lerin perde arkasında, işleyişlerine bakmalıyız.
LLM’leri kitaplar, makaleler ve sosyal medya paylaşımlarıyla dolu geniş dijital arşivler olarak hayal edin.
LLM'ler (Büyük Dil Modelleri) verileri işlemek için şu şekilde çalışır:
- Veriler, anlamlı birimler olan jetonlara (tokens) bölünür. Bu jetonlar, kelimeler, harfler veya kelime parçaları olabilir.
- LLM'ler, insan beynini gevşek bir şekilde taklit eden karmaşık sinir ağları (NN - Neural Networks) kullanarak bu jetonları işler.
- Model, bir dizideki bir sonraki kelimeyi tahmin etmek için sinir ağlarını kullanır. Bu süreçte, her tahminle modelin iç parametreleri yeniden ayarlanır ve böylece tahmin yetenekleri zamanla daha doğru hale gelir.
LLM'ler daha fazla veri işledikçe dildeki kalıpları, örneğin dil bilgisi kurallarını ve kelime ilişkilerini daha iyi kullanmaya başlarlar.
Örneğin, sanal asistanlar müşteri şikayetlerine verilen yanıtları inceleyebilir ve belirli anahtar sözcükleri belirleyerek çözümler önerebilir. Ancak, bu süreçteki herhangi bir eksiklik halüsinasyona yol açabilir.
Yapay Zekanın Halüsinasyonları Neden Sorun Teşkil Ediyor?
Yapay zeka halüsinasyonları, yapay zeka ile ilgili büyüyen etik endişeler listesinin ilk sıralarında yer alıyor.
Halüsinasyonlar önyargıları sürdürebilir, şirketler için maliyetli sorunlara yer açabilir dahası otonom araçlarda büyük sorunlara yol açabilir.
Yapay zeka sisteminin bilgisayar görüşü sokakta olmayan bir köpeği görebilir ve kazadan kaçınmak için arabayı yoldan çıkarabilir.
Yapay Zeka Sohbet Robotları Ne Sıklıkla Halüsinasyon Görüyor?
Yapay zeka halüsinasyonlarının sıklığını belirlemek zor. Aslında bu oran, kullanılan yapay zeka modeline veya bağlama göre büyük ölçüde değişir.
Bir yapay zeka girişimi olan Vectara'nın GitHub'daki Vectara'nın halüsinasyon lider tablosuna göre, sohbet robotları zamanın %3 ila %27'si arasında halüsinasyon görüyor.
Yapay Zeka Halüsinasyonlarını Nasıl Önleriz?
Yapay zeka halüsinasyonlarını tamamen ortadan kaldırmak imkansız olsa da, birkaç yol ile bunların oluşumunu ve etkisini azaltabiliriz.
Bu yöntemlerden bazıları elbette yapay zeka modellerini iyileştirmek için çalışan araştırmacılar ve geliştiriciler için geçerli.
Eğitim verilerinin kalitesini artırmak, sonuçların sayısını sınırlamak, test ve doğrulama yapmak teknik kısım.
Diğer kısım ise günlük olarak yapay zeka araçlarını kullandığımız zaman geçerli.
Yapay zeka araçlarını sorumlu bir şekilde kullanmamız gerektiğiniz unutmamalıyız.
Evet, böyle bir gerçek var. Yapay zeka halüsinasyon görüyor. Bu nedenle, yapay zekanın ürettiği bilgileri diğer kaynaklardan mutlaka doğrulamalıyız.