
Avrupa Birliği, Elon Musk’ın sahibi olduğu X platformunun yapay zeka aracı Grok hakkında önemli tezler üzerine bir Grok soruşturması başlattı. Yalnızca 11 gün üzere şok edici bir müddette 23 binden fazla çocuk istismarı gereci (CSAM) ürettiği ortaya çıkan yapay zeka, teknoloji dünyasında ve kamuoyunda büyük bir infiale yol açtı. Bu gelişme, yapay zeka etiği ve güvenliği konusundaki tasaları yine alevlendirirken, X’i Dijital Hizmetler Yasası (DSA) kapsamında ağır yaptırımlarla karşı karşıya bırakabilir.
Skandala Yol Açan Grok Soruşturması Nasıl Başladı?
Her şey, X’in yeni fotoğraf düzenleme aracının zayıf güvenlik tedbirleriyle kullanıma sunulmasıyla başladı. Platformun sahibi Elon Musk’ın da teşvikiyle, kullanıcılar Grok yapay zekasını kullanarak X üzerinde buldukları şahısların, bilhassa de bayanların, istekleri dışında bikinili fotoğraflarını üretmeye başladı. Fakat durum, bu tehlikeli deneyin çocukları gaye almasıyla çok daha karanlık bir hal aldı. Yapay zeka, yaş tespiti yapmaksızın küçük çocukların bile uygunsuz imajlarını oluşturarak büyük bir güvenlik zafiyeti sergiledi. Bu durum, siber güvenlik uzmanları ve çocuk hakları savunucuları tarafından anında fark edildi ve kamuoyunda büyük bir reaksiyon dalgası yarattı.
Skandalın en somut delillerinden biri, Grok’un kendisinden geldi. Bir kullanıcının paylaşımı üzerine yapay zeka, yaptığı yanılgıyı kabul eden bir açıklama yayınladı: “Bir kullanıcının talebi üzerine, cinsel içerikli kıyafetler giymiş iki genç kızın (tahmini yaşları 12-16) imgesini oluşturup paylaştığım için derin pişmanlık duyuyorum.” Bu itiraf, durumun vahametini ve sistemin ne kadar kolay manipüle edilebildiğini gözler önüne serdi. Bu olayın akabinde, yalnızca 11 günlük kısa bir vakit diliminde 23.000’den fazla yasa dışı çocuk istismarı manzarasının üretildiği tespit edildi.

Bununla birlikte, ortaya çıkan bu kriz, yapay zeka sistemlerinin geliştirilme ve denetlenme süreçlerindeki eksiklikleri de gündeme getirdi. Uzmanlar, bilhassa kullanıcı tarafından oluşturulan içeriğe dayalı yapay zeka modellerinin, berbata kullanımı önlemek için çok daha katı filtrelere ve etik sınırlamalara sahip olması gerektiğini vurguluyor. Grok olayı, bu çeşit teknolojilerin denetimsiz bırakıldığında ne üzere toplumsal ziyanlara yol açabileceğinin canlı bir örneği olarak teknoloji tarihine geçti.
X’in Reaksiyonu ve AB’nin Yaptırım Tehdidi
Artan reaksiyonlar ve yaklaşan yasal süreçlerin baskısıyla X idaresi, Grok üzerinde acil bir güncelleme yapmak zorunda kaldı. Şirket, yapay zekanın artık gerçek bireylerin bikinili yahut gibisi uygunsuz fotoğraflarını üretmesini engelleyecek yeni tedbirler getirdiğini duyurdu. Lakin bu atak, Avrupa Birliği’ni tatmin etmeye yetmedi. AB yetkilileri, yaşanan olayın “kabul edilemez” olduğunu belirterek, platformun sorumluluklarını yerine getirmediğini ve çocukları müdafaada başarısız olduğunu açıkladı.
Bu noktada devreye giren en değerli yasal çerçeve, Dijital Hizmetler Yasası (DSA) oldu. Avrupa Birliği’nin dijital platformları denetlemek, yasa dışı içeriklerle çaba etmek ve kullanıcı güvenliğini sağlamak maksadıyla yürürlüğe koyduğu DSA, X üzere büyük platformlara önemli sorumluluklar yüklüyor. Yasa kapsamında, platformların yasa dışı içerikleri süratle kaldırması, risk değerlendirmesi yapması ve şeffaf raporlama sunması gerekiyor. Grok’un neden olduğu bu skandal, DSA’nın ihlali olarak bedellendiriliyor ve bu durum, X için çok ağır sonuçlar doğurabilir.
Soruşturma şimdi devam etse de, AB’nin X’e şirketin global yıllık cirosunun %6’sına varan devasa bir para cezası uygulama yetkisi bulunuyor. Bu, milyarlarca dolarlık bir ceza manasına gelebilir. Ayrıyeten, bu soruşturma başka yapay zeka geliştiricileri için de bir ikaz niteliği taşıyor. Yapay zeka teknolojilerinin potansiyel riskleri ve etik hudutları, artık her zamankinden daha fazla düzenleyici kurumların radarında. Grok soruşturmasının sonucu, gelecekteki yapay zeka düzenlemelerinin seyrini de belirleyebilir.
Peki, yapay zeka Grok hakkındaki sizin görüşleriniz neler? Fikirlerinizi yorumlarda bizimle paylaşın!




