MN Oftalmoloji, cilt.32, sa.4, ss.239-245, 2025 (TRDizin)
Amaç: Antiglokomatöz tedavi kullanan hastaların, tedavi ile ilgili sıkça sorduğu sorulara ChatGPT tarafından verilen yanıtların doğruluğu, kapsamlılığı, okunabilirliğinin değerlendirilmesi. Gereç ve Yöntem: ChatGPT 4o uygulamasına glokomun medikal tedavisi ile ilgili olarak internet kullanıcıları tarafından sıkça sorulan 20 soru yöneltildi. Soruların yanıtları birbirinin değerlendirmelerine kör 3 oftalmolog tarafından içeriğinin doğruluğu ve kapsamlılığı açısından 1-4 arasında puanlandı. Yanıtların okunabilirlik düzeyi Türkçe metinlerde okunabilirliğin ölçülmesi amacıyla Flesch formülü uyarlaması ile geliştirilmiş olan Ateşman Formülü kullanılarak skorlandı. Ek olarak yanıt metinleri doktora danışma tavsiyesi varlığı açısından değerlendirildi. Bulgular: ChatGPT yanıtlarının toplam ortalama doğruluk puanı 3,70 ± 0,59, ortalama kapsamlılık puanı 3,67 ± 0,54 olarak saptandı. Yanıtların 18’i (%90,0) hem doğruluk hem de kapsayıcılık açısından 3 ve üzeri puan ortalamasına sahipti. Dokuz yanıtın (%45,0) hem doğruluk hem de kapsamlılık açısından üç değerlendiriciden de tam puan (4 puan) aldığı saptandı. Ortalama okunabilirlik puanı 43,79 ± 6,91 ile “zor” seviyesinde saptandı. Okunabilirlik zorluk düzeyleri yanıtların 4’ünde (%20,0) “orta güçlükte”, 15’inde (%75,0) “zor”, 1’inde (%5,0) “çok zor” seviyesinde idi. Yanıtların 12’sinde (%60,0) doktora başvurmak için teşvik ifadesinin yer aldığı saptandı. Sonuç: ChatGPT’nin bazı sınırlamaları olmasına rağmen glokomun medikal tedavisi ile ilgili soruları yüksek doğruluk ve kapsamlılıkta yanıtladığını saptadık. Oftalmologların, tıbbi danışmanlık amacıyla ChatGPT kullanımının olası etkilerinin farkında olmaları, yanlışlıkları ve eksiklikleri düzeltmeleri açısından gereklidir.
bjectives: To evaluate the accuracy, comprehensiveness, and readability of the responses provided by ChatGPT to frequently asked questions from patients undergoing antiglaucomatous treatment. Material and Method: Twenty frequently asked questions from internet users regarding the medical treatment of glaucoma were posed to the ChatGPT 4o application. The responses were rated by three ophthalmologists, who were blinded to each other’s evaluations, on a scale of 1 to 4 for accuracy and comprehensiveness. The readability level of the responses was assessed using the Ateşman Formula, an adaptation of the Flesch formula developed for measuring readability in Turkish texts. The results were classified according to a readability scale as very easy, easy, moderately difficult, difficult, and very difficult. Additionally, the response texts were evaluated for the presence of recommendations for consulting a doctor. Results: The overall average accuracy score of the ChatGPT responses was 3.70 ± 0.59, while the average comprehensiveness score was 3.67 ± 0.54. Eighteen responses (90.0%) had an average score of 3 or higher in terms of both accuracy and comprehensiveness. Nine responses (45.0%) received a maximum score (4 points) from all three evaluators for both accuracy and comprehensiveness. The average readability score was 43.79 ± 6.91, indicating a “difficult” readability level. The readability difficulty levels were classified as follows: 4 responses (20.0%) were rated as “moderately difficult”,15 responses (75.0%) as “difficult”, and 1 response (5.0%) as “very difficult”. In 12 responses (60.0%), an encouragement to consult a doctor was included. Conclusion: Despite some limitations of ChatGPT, we found that it answers questions regarding the medical treatment of glaucoma with high accuracy and comprehensiveness. It is essential for ophthalmologists to be aware of the potential impacts of using ChatGPT for medical consultation to correct inaccuracies and deficiencies.