DOLAR 34,8698 0.08%
EURO 36,6398 -0.21%
ALTIN 3.024,060,31
BITCOIN 34171920.29724%
İstanbul

HAFİF YAĞMUR

SABAHA KALAN SÜRE

Araştırmacılar uyardı: OpenAI’ın tıpta kullanılan aracı palavra söylüyor!
6 okunma

Araştırmacılar uyardı: OpenAI’ın tıpta kullanılan aracı palavra söylüyor!

Ekim 28, 2024 19:24
Araştırmacılar uyardı: OpenAI’ın tıpta kullanılan aracı palavra söylüyor!
0

BEĞENDİM

OpenAI’ın sesli transkripsiyon aracı Whisper, tıbbi merkezlerde hasta görüşmelerini çevirme ve yazıya dökme süreçlerinde ağır bir halde kullanılan bir araç. Ama yeni bir rapora nazaran, aracın özgün kayıtlarda olmayan bilgiler üretmeye eğilimli olduğu ortaya çıktı. ABC News ve Engadget’ın aktardığına nazaran, Whisper aracı vakit zaman transkripsiyonlarda olmayan sözler, hatta yanlış ilaç isimleri ve yanlışlı yorumlar ekleyebiliyor. Pekala, neden bu türlü davranıyor? Tıbbi alanda ne üzere riskler oluşturuyor? Detaylar haberimizde…

OpenAI’ın Whisper aracı yanlış bilgiler üretip palavra söyleyebiliyor!

Whisper’ın “halüsinasyon” ismi verilen yanlış transkripsiyonlarının, bilhassa tıbbi alan üzere yüksek risk taşıyan bölümlerde önemli sıkıntılara yol açabileceği belirtiliyor. OpenAI, aracı bu tıp riskli alanlarda kullanmaktan kaçınılması gerektiği tarafında ihtarlar yapmış olsa da, aracın yaygın kullanımı bu ikazlara karşın sürüyor.

Örneğin, bir makine tahsili mühendisi, 100 saatlik bir kaydın yarısında yanlış transkripsiyonlara rastladığını belirtirken, bir öteki geliştirici de tahlil ettiği 26 bin transkripsiyonun tamamında misal yanılgılar bulduğunu lisana getirdi. Araştırmalar, bu çeşit yanılgıların dünya genelinde milyonlarca kayıtta sorun yaratabileceğini söylüyor.

Hatta, durum o kadar vahim ki, bilhassa OpenAI’ın Whisper aracını Oracle ve Microsoft Cloud üzere büyük platformlarla entegre etmesiyle daha da riskli bir hal alıyor. Dünya çapında binlerce kullanıcıya hizmet sunan bu bulut hizmetleri, yanlış transkripsiyonların yayılmasına ön ayak olmuş durumda.

Ayrıca, Allison Koenecke ve Mona Sloane üzere akademisyenlerin yaptığı incelemeler, Whisper’ın ürettiği yanlış bilgilerin %40’ının ziyanlı olabileceğini ortaya koydu. Örneğin, sıradan bir ifadeyi “büyük bir haç modülü aldı ve insanları öldürdü” üzere yanlış bir yorumla aktardığı gözlemlendi.

OpenAI, bu raporları inceleyip gelecekteki güncellemelerde bu geri bildirimleri dikkate alacaklarını belirtti. Siz bu mevzuda ne düşünüyorsunuz? Yapay zeka, bize anlatıldığı kadar emniyetli değil mi? Görüşlerinizi aşağıdaki yorumlar kısmına yazabilirsiniz.

En az 10 karakter gerekli


HIZLI YORUM YAP

300x250r
300x250r

Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.