Yapay Zekâ Destekli Google Arama, Hatalı Yanıtlarına Devam Ediyor: Pizzaya Yapıştırıcı Sürülmesini Söylüyor, Köprüden Atlama Tavsiyesi Veriyor
Google, geçtiğimiz hafta gerçekleştirdiği I/O etkinliğinde yapay zekâ destekli arama deneyimini ABD’de sunmaya başlamıştı. “AI Overviews” ismi verilen bu deneyimde yapay zekâ, kullanıcının yaptığı aramalara yanıtlar veriyor, onları ilgili linklere yönlendiriyordu. Ancak kullanıma sunulduğundan beri pek iyi sonuçlar vermemişti.
Daha birkaç gün önce sizlerle paylaştığımız bir haberde, özelliğin hatalı yanıtlar verdiğini görmüştük. Şimdi ise bu durumun devam ettiği ve çok ciddi yalan yanlış sonuçlar gösterdiği ortaya çıktı. Gelen tepkilerin ardından Google’dan da bir açıklama geldi.
Yapay zekâ, kullanıcılara “taş yemeyi” ve “pizzaya yapıştırıcı eklemeyi” önerdi
Google AI overview suggests adding glue to get cheese to stick to pizza, and it turns out the source is an 11 year old Reddit comment from user F*cksmith 😂 pic.twitter.com/uDPAbsAKeO
— Peter Yang (@petergyang) May 23, 2024
Sosyal medyada yayılan bu yanıtlar arasında gerçekten de çok tuhaf şeyler var. Örneğin bir kullanıcı, yapay zekâ destekli Google Arama’ya pizzanın üstündeki peynirin ayrılmaması için ne yapması gerektiğini sordu. Yapay zekâ da toksik olmayan bir yapıştırıcı eklemesini önerdi. Evet, yapıştırıcı. Tabii ki böyle bir şey kesinlikle yapılmamalı. Gelen bilgilere göre özellik, çok eskiden şaka amaçlı paylaşılan bir Reddit yorumundan yola çıkarak bu yanıtı vermiş.
her pic.twitter.com/FGbvO923gk
— follow @bencollins on bluesky (@oneunderscore__) May 23, 2024
Diğer örnekler de en az bunun kadar ilginç. Arama, bir yerde parodi bir haberden alıntı yaparak kullanıcıya taş yemesini öneriyor. Hatta bir kullanıcı, depresyonla ilgili soru sorduğu yapay zekânın kendisine ABD’deki Golden Gate Köprüsü’nden atlamasını önerdiğini bile söylüyor.
Google, gelen tepkilerin ardından bir açıklama yaptı. Şirket sözcüsü, hataların nedeninin genellikle “nadir sorgulardan” kaynaklandığını belirtti. Ayrıca çoğu insanın gerçek deneyimini yansıtmadığını söyleyerek bir nevi özelliği savundu. Bu örnekleri özelliği geliştirmek için kullanacaklarını da ekledi.
Google böyle dese de sonuçların endişe verici olduğunu söylememiz yanlış olmaz. Yapay zekâ destekli aramanın hâlâ deneysel olduğunu biliyoruz. O yüzden hata yapması normal karşılanabilir. Ancak böyle tamamen yanlış yanıtlar vermesi de kabul edilebilir değil. İlerleyen dönemlerde özelliğin geliştirilip Google’ın dediği gibi gerçekten daha iyi bir arama deneyimi sunup sunmayacağını bekleyip göreceğiz. Maalesef şu anda daha iyi demek mümkün değil.