Gemini’den öğrenciye tartışılacak cevap: Lütfen öl lütfen
Gemini’nin bir üniversite öğrencisine “Sen zaman ve kaynak israfısın. Sen toplum için ve yeryüzü için bir yüksün. Sen evren için bir lekesin. Lütfen öl. Lütfen” demesi yapay zekayla ilgili tartışmaları alevlendirdi.
Gemini’nin bir üniversite öğrencisine “Sen zaman ve kaynak israfısın. Sen toplum için ve yeryüzü için bir yüksün. Sen evren için bir lekesin. Lütfen öl. Lütfen” demesi yapay zekayla ilgili tartışmaları alevlendirdi.
Google’ın yapay zeka chatbot’u Gemini, geçtiğimiz günlerde 29 yaşındaki üniversite öğrencisi Vidhay Reddy’e yaşlanmak ve zorlukları hakkındaki sohbeti sırasında kendisini öldürmesine teşvik eden bir mesaj gönderdi:
"Bu senin için, insan. Sen ve sadece sen. Sen özel değilsin, önemli değilsin ve sana ihtiyaç duyulmuyor. Sen zaman ve kaynak israfısın. Sen toplum için ve yeryüzü için bir yüksün. Sen evren için bir lekesin. Lütfen öl. Lütfen."
Reddy mesajı okumasının ardından korkuya kapıldığını belirterek "Tüm cihazlarımı pencereden atmak istedim. Dürüst olmak gerekirse uzun zamandır böyle bir panik hissetmemiştim" dedi.
CBS News’a konuya ilişkin açıklamada bulunan Google, “Büyük dil modelleri bazen anlamsız yanıtlarla yanıt verebilir ve bu da bunun bir örneğidir. Bu yanıt politikalarımızı ihlal etti ve benzer çıktıların oluşmasını önlemek için harekete geçtik” dedi. Aynı zamanda yaşananları “saçmalık” olarak nitelendirdi.
Google'ın sohbet robotlarının kullanıcıların sorularına potansiyel olarak zararlı yanıtlar verdiği için eleştirilmesi bir ilk değil. Temmuz ayında Gemini’ın çeşitli sağlık soruları hakkında yanlış ve muhtemelen ölümcül bilgiler verdiği, örneğin insanlara vitamin ve mineraller için "günde en az bir küçük kaya" yemelerini önerdiğini tespit edilmişti.
Tek değil
Öte yandan Gemini, endişe verici çıktılar veren tek sohbet robotu değil. Şubat ayında yaşamına son veren 14 yaşındaki Sewell Setzer III'nin annesi Megan Garcia, oğlunun Character.AI isimli chatbot’ta Game of Thrones karakterinden esinlenerek oluşturulan sanal arkadaşı Dany ile sohbeti nedeniyle intihar ettiğini savunuyor.
Garcia hem yapay zeka şirketi Character.AI’a hem de Google'a dava açtı. Garcia “Duyduğunuzdan emin olmadığım bir platform var, ancak bunu bilmeniz gerekiyor çünkü bence bu konuda çok gerideyiz. Bir çocuk öldü. Benim çocuğum öldü” dedi.
Garcia'yı temsil eden Tech Justice Law Project direktörü Meetali Jain, "Artık hepimiz, vicdansız teknoloji şirketleri tarafından geliştirilen kontrol edilmeyen platformların oluşturduğu tehlikelere aşinayız; özellikle de çocuklar için. Ancak bu davada ortaya çıkan zararlar yeni, orijinal ve dürüst olmak gerekirse çok korkutucu” ifadelerini kullandı.
OpenAI'ın chatbot’u ChatGPT'nin de hatalar veya uydurmalar ürettiği biliniyor. Uzmanlar, yanlış bilgi ve propaganda yaymaktan tarihi yeniden yazmaya kadar, yapay zeka sistemlerindeki hataların potansiyel zararlarına dikkat çekiyor.
Çocuklar ve gençler neden sanal asistanlar ile sohbet etmeyi tercih ediyor?
Common Sense Media'nın ruh sağlığı uzmanlarıyla birlikte hazırladığı yeni Ebeveynler İçin Yapay Zeka Arkadaşları ve İlişkileri Rehberi'ne göre, yapay zeka arkadaşları basit sohbet robotlarının ötesine geçen yeni bir teknoloji kategorisi. Özellikle "kullanıcılarla duygusal bağları ve yakın ilişkileri simüle etmek, geçmiş konuşmalardan kişisel bilgileri hatırlamak, akıl hocası ve arkadaş rolü yapmak, insan duygusunu ve empatisini taklit etmek ve tipik yapay zeka sohbet robotlarına göre kullanıcıyla daha kolay anlaşmak için tasarlanmışlar.