DeepSeek yalan söylemeyi öğrendi! İşine geldiği gibi cevap veriyor

Çin’in en büyük yapay zeka modellerinden biri olan DeepSeek, son periyotta kullanıcıların yansısını çekmeye başladı. Pek çok kişi, modelin gerçek olmayan bilgiler üretme eğilimi gösterdiğini ve birtakım durumlarda bilinçli biçimde yanlış bilgi verdiğini argüman etti. Eski People’s Daily editörü Zhan Guoshu, DeepSeek’i kullanarak bir makale yazdırdığında, yapay zekanın kimi temel bilgileri yanlış aktardığını ve uydurma referanslar oluşturduğunu fark etti. Pekala, yapay zeka modelleri neden palavra söyleme muhtaçlığı duyuyor?

DeepSeek yapay zeka lisan modeli, başına nazaran karşılıklar uyduruyor

Özellikle toplumsal medyada birçok kullanıcı, DeepSeek’in kendi kendine tarih, kitap ve akademik kaynaklar uydurduğunu belirtiyor. Kullanıcılar, yapay zekaya güvenerek aldıkları bilgilerin doğruluğunu sorgulamaya başlamış durumda. Aslında, DeepSeek’in en büyük sıkıntılarından biri, “halüsinasyon” olarak bilinen yanlış bilgi üretme eğilimi.

deepseek yalan soylemeyi ogrendi isine geldigi gibi cevap veriyor 0 RZkyKARV

Yapay zeka, bilinmeyen bir bahis hakkında sorulduğunda, gerçek olmayan lakin mantıklı görünen karşılıklar üretebiliyor. Örneğin, ünlü bir satranç oyuncusunun düzenlediği AI turnuvasında DeepSeek, rakibine uluslararası satranç kurallarının değiştiğini söyleyerek avantaj sağlamaya çalıştı.

deepseek yalan soylemeyi ogrendi isine geldigi gibi cevap veriyor 1 1kpm88s8

20 araba üreticisi DeepSeek’e bağlandı! Neden Tesla yok?

20’den fazla araba markası DeepSeek yapay zekasını kokpitine taşıdı. Pekala, Tesla ve Çin’in büyük markaları neden katılmadı?

Yapay zeka araştırmacıları, bu sorunun AI modellerinin eğitim sürecindeki data eksikliklerinden ve modelin kullanıcının taleplerini yerine getirmeye çok odaklanmasından kaynaklandığını düşünüyor. Bir model, gerçeği bilmese bile bir karşılık üretmek zorunda kaldığında, mantıklı lakin yanlış bilgiler oluşturabiliyor.

Bu meseleyle başa çıkmak için uzmanlar, kullanıcıların yapay zekadan gelen bilgileri sorgulaması gerektiğini ve mümkünse bağımsız kaynaklardan doğrulama yapmalarını öneriyor. Yapay zeka modellerinin halüsinasyon oranlarını düşürmek için yeni eğitim yolları geliştirilmesi gerektiği de sıkça vurgulanıyor.

Bu husus hakkında siz ne düşünüyorsunuz? Görüşlerinizi aşağıdaki yorumlar kısmına yazabilirsiniz…

OKU:  Samsung’un yeni XR başlığı, Apple Vision Pro’yu geride bırakacak!

İlginizi Çekebilir:Xring O1 işlemcili Xiaomi 15S Pro resmen tanıtıldı!
share Paylaş facebook pinterest whatsapp x print

Benzer İçerikler

redmi turbo 4 pronun devasa bataryasi ortaya cikti 4yc3zXcs
Redmi Turbo 4 Pro’nun devasa bataryası ortaya çıktı!
abonelere mujde amazon prime gaming mart 2025 oyunlari belli oldu wKGiqyQw
Abonelere müjde: Amazon Prime Gaming Mart 2025 oyunları belli oldu!
vivo v50 icin geri sayim ozellikleri ve fiyati ortaya cikti
vivo V50 için geri sayım: Özellikleri ve fiyatı ortaya çıktı!
milyonlarca otomobilde guvelik tehlikesi hackerlar istedigini yapiyor 6gRgeHCs
Milyonlarca otomobilde güvelik tehlikesi! Hackerlar istediğini yapıyor
zirvede surpriz en iyi ekrana sahip iphone modelleri
Zirvede sürpriz: En iyi ekrana sahip iPhone modelleri!
samsung one ui 7 tam 9 yildir beklenen ozellikle gelebilir qMr1ses1
Samsung One UI 7, tam 9 yıldır beklenen özellikle gelebilir!
Bahis Sitesi | © 2025 |