JAKARTA – Informasi akurat untuk perawatan pasien di rumah sakit sangat penting untuk menentukan penyakit pasien. Satu kesalahan hanya mampu berakibat kematian misalnya jikalau alergi pasien tidak ada dicantumkan pada catatan.
Whisper ditemukan menghasilkan kembali transkripsi yang dimaksud mengandung halusinasi, menyebabkan catatan pasien tiada akurat juga berisiko.
Seperti dilansir dari Mirror, meskipun hanya saja 1% transkripsi yang dimaksud terpengaruh, ini berarti ada sekitar 70.000 transkripsi yang digunakan tidaklah akurat dari 7 jt rekaman percakapan.
Rekaman audio dihapus pasca transkripsi dikarenakan alasan privasi, sehingga koreksi kesalahan hampir tidaklah mungkin saja dilakukan.
Kini muncul laporan Whisper kecerdasan buatan (AI) yang dikembangkan Open Artificial Intelligence untuk mencatat pasien yang kedapatan mengalami halusinasi yang memunculkan risiko bagi pasien.
Whisper digunakan pada program yang dikembangkan oleh Nabla yang merekam sebelum menghasilkan kembali transkripsi percakapan antara dokter juga pasien.
Dalam laporan Associated Press, berjumlah 1% transkripsi yang mana dihasilkan mengandung halusinasi yang dimaksud menyebabkan pencatatan pasien bukan akurat.
Angka 1% tampaknya kecil namun Nabla telah lama mencatatkan data lebih tinggi dari 7 jt percakapan dan juga ini berarti 70.000 transkrip yang mana tiada akurat sudah dihasilkan.
Yang lebih besar serius lagi, para peneliti menemukan bahwa Whisper juga menciptakan penyakit yang dimaksud tidak ada ada.
Artikel ini disadur dari Gawat! Rumah Sakit Gunakan AI untuk Diagnosis Penyakit Pasien