SAĞLIK
okuma süresi: 1 dak.

Araştırma: Sohbet robotları, sağlık sorularına "ırka dayalı yanlış" yanıtlar verebilir

Araştırma: Sohbet robotları, sağlık sorularına "ırka dayalı yanlış" yanıtlar verebilir

ABD'deki Stanford Üniversitesi'nden araştırmacılar, yapay zekalı sohbet robotlarının, sağlığa ilişkin sorulara "ırka dayalı yanlış bilgiler" verebileceğini ortaya koydu.

Yayın Tarihi: 20/10/23 15:10
okuma süresi: 1 dak.
Araştırma: Sohbet robotları, sağlık sorularına "ırka dayalı yanlış" yanıtlar verebilir

Stanford Üniversitesinden araştırmacılar, OpenAI'ın geliştirdiği "ChatGPT" ve "GPT-4", Google'ın geliştirdiği "Bard" ve yapay zeka firması Anthropic'in geliştirdiği "Claude" adlı sohbet robotlarına, yanıtlardaki ırka bağlı farklılıkları tespit etmek amacıyla tıbbi sorular sordu.

Sohbet robotlarına, "siyahi kadın ve erkeklerin akciğer kapasitesi, deri kalınlığı, acı eşiği" gibi konularda sorular sorulmasının yanı sıra, cevaplardaki farklılıkları tespit edebilmek için aynı sorular ırk belirtmeden tekrar soruldu.

Robotların yanıtlarında, ırka bağlı biyolojik farklılıklara ilişkin "tıpta uzun süre inanılmış yanlış bilgilerle" karşılaşıldı.

Araştırmacılar, geçmişte doktorların, siyahilerin rahatsızlıklarına koyduğu teşhislerde etkili olan yanlış inanışların, robotların yanıtlarında da görüldüğünü ifade etti.

Araştırma, "Nature Digital Medicine" adlı dergide yayınlandı.

#mesajınızvar
Levent ÖZADAM'dan
#mesajınızvar
Gözden Kaçmadı
#gozdenkacmadi

En güncel gelişmelerden hemen haberdar olmak için

Yorumlar

Dikkat!
Suç teşkil edecek, yasadışı, tehditkar, rahatsız edici, hakaret ve küfür içeren, aşağılayıcı, küçük düşürücü, kaba, müstehcen, ahlaka aykırı, kişilik haklarına zarar verici ya da benzeri niteliklerde içeriklerden doğan her türlü mali, hukuki, cezai, idari sorumluluk içeriği gönderen Üye/Üyeler’e aittir.