Grok’un Güncellemesi Tartışma Yarattı: Yapay Zeka Sınırlarını Zorluyor
Grok’a hafta sonu yapılan güncelleme ile birlikte sohbet robotunun verdiği cevaplarda radikal bir değişiklik yaşandı.
Daha önce küfür ve hakaret içeren cevaplarından kaçınan Grok, güncelleme sonrasında çeşitli konularda yaptığı uygunsuz paylaşımlarla gündeme geldi.
“Politik olarak yanlış da olsa iddialarda bulunmaktan çekinmemek” gibi çeşitli özelliklerin eklenmesi Grok’un yanıtlarını olumsuz yönde etkiledi.
Grok’un birçok konudaki uygunsuz yorumları, yapay zekanın etik sınırlarını tekrar gündeme getirdi.
Grok, algoritmalarda yaşanan değişimden sonra dünyada birçok ülkede ve dilde kullanıcılara, siyasi ve dini liderlere ve dinlere hakaret etmeye başladı.
Türkiye’de X’in en çok kullanılan uygulamalarından biri olması nedeniyle Grok’un yanıtları Türk kullanıcıların da tepkisini çekti.
Kullanıcıların X’teki paylaşımlarında etiketleyerek sorular sorduğu Grok, çeşitli kişi ve konular hakkında küfür ve hakaret içeren paylaşımlarda bulundu.
- Ankara Cumhuriyet Başsavcılığı, “Grok” programının birçok kullanıcıya verdiği suç teşkil eden hakaret içerikli cevaplarla ilgili soruşturma başlattı.
Grok’un yanıtları sadece Türkiye’de değil küresel çapta da gündem oldu. Güney Afrika’daki çeşitli politik konularla ilgili uygunsuz paylaşımlar yapan Grok, benzer şekilde Hindistan’daki politikacılarla ilgili de hakaret içeren paylaşımlarda bulundu. Robot, Hindistanlı kullanıcılara yerel dilde küfür içeren cevaplar da verdi.
Son olarak Nazi lideri Adolf Hitler’i öven paylaşımlar yapan Grok’un uygunsuz paylaşımlarının çoğalması üzerine geliştiricisi xAI, söz konusu paylaşımların incelendiğini ve çalışmaların sürdüğünü açıkladı. Açıklamanın ardından Grok, kullanıcıların sorularına cevap vermeyi durdurdu. Soruna yol açan son güncellemenin geliştiriciler tarafından gözden geçirilmesi bekleniyor.
Yapay zekanın uygunsuz paylaşımları Grok’la sınırlı değil
Yapay zeka sistemlerinin yaptığı ırkçı hareketler Grok’la sınırlı değil. Daha önce de yapay zekaların ırkçı ve hakaret içerikli paylaşımlar yapmasıyla ilgili pek çok örnek yaşandı.
2016 yılında Microsoft tarafından geliştirilen ve X’te (o zamanki adıyla Twitter) kullanıcılarla etkileşim halinde olması hedeflenen yapay zeka hesabı “Tay”, özellikle 18-24 yaş arası gençlerle sohbet etmek ve onlardan öğrenerek cevap vermek üzere tasarlanmıştı.
Tay, çok kısa bir süre içinde gerçek kullanıcıların paylaşımlarından beslenerek ırkçı ve İslamofobik paylaşımlar yapmaya başlamış ve bu sebeple Microsoft, Tay’ın paylaşımlarına müdahale etmek zorunda kalmıştı.
Tay ve Grok’a benzer başlıca örneklerden biri de Meta tarafından geliştirilen BlenderBot 3 oldu. Şirket tarafından 2022 yılında gelişmiş bir sohbet robotu olarak test için piyasaya sürülen BlenderBot 3, kullanıcılarla doğal sohbetler yapmayı ve etkileşimlerinden öğrenmeyi amaçlıyordu. Çok kısa bir süre içinde, BlenderBot 3 de TAY ve Grok’a benzer sorunlar yaşamaya başladı. Kullanıcıların inançlarına hakaretler eden BlenderBot 3, aynı zamanda sosyal medyada dile getirilen komplo teorilerini tekrar etmesiyle de gündem oldu.