Araştırma: Sohbet robotları, sağlık sorularına "ırka dayalı yanlış" yanıtlar verebilir

ABD'deki Stanford Üniversitesi'nden araştırmacılar, yapay zekalı sohbet robotlarının, sağlığa ilişkin sorulara "ırka dayalı yanlış bilgiler" verebileceğini ortaya koydu.

Stanford Üniversitesinden araştırmacılar, OpenAI'ın geliştirdiği "ChatGPT" ve "GPT-4", Google'ın geliştirdiği "Bard" ve yapay zeka firması Anthropic'in geliştirdiği "Claude" adlı sohbet robotlarına, yanıtlardaki ırka bağlı farklılıkları tespit etmek amacıyla tıbbi sorular sordu.
Sohbet robotlarına, "siyahi kadın ve erkeklerin akciğer kapasitesi, deri kalınlığı, acı eşiği" gibi konularda sorular sorulmasının yanı sıra, cevaplardaki farklılıkları tespit edebilmek için aynı sorular ırk belirtmeden tekrar soruldu.
Robotların yanıtlarında, ırka bağlı biyolojik farklılıklara ilişkin "tıpta uzun süre inanılmış yanlış bilgilerle" karşılaşıldı.
Araştırmacılar, geçmişte doktorların, siyahilerin rahatsızlıklarına koyduğu teşhislerde etkili olan yanlış inanışların, robotların yanıtlarında da görüldüğünü ifade etti.
Araştırma, "Nature Digital Medicine" adlı dergide yayınlandı.
Yorumlar
Dikkat!
Suç teşkil edecek, yasadışı, tehditkar, rahatsız edici, hakaret ve küfür içeren, aşağılayıcı, küçük düşürücü, kaba, müstehcen, ahlaka aykırı, kişilik haklarına zarar verici ya da benzeri niteliklerde içeriklerden doğan her türlü mali, hukuki, cezai, idari sorumluluk içeriği gönderen Üye/Üyeler’e aittir.