Sektör Analizi Yapay Zeka

712 Karar, Tek Ders: Dünya Mahkemelerinde Yapay Zeka Halüsinasyon Yaptırımları

2025 yılı itibarıyla dünya genelinde 712 halüsinasyon içeren mahkeme kararının analizi, en çarpıcı vakalar ve Türk avukatları için alınması gereken dersler.

Davamda Ekibi

712. Bu sayı, 2025 yılı itibarıyla dünya genelinde yapay zeka halüsinasyonu tespit edilen mahkeme kararlarının sayısı. 2023’te bu sayı birkaç düzineydi. İki yılda yaşanan patlama, yapay zekanın hukuk pratiğine girişinin kontrolsüz yanını gözler önüne seriyor.

712 Kararın Anatomisi

Vakaların %90’ı 2025 yılına yoğunlaşmış durumda. Bu artışın nedeni yapay zekanın daha çok hata yapması değil - aksine yapay zeka modelleri iyileşiyor. Asıl neden, kullanımın yaygınlaşmasıyla birlikte hataların da görünür hale gelmesi.

Coğrafi dağılım ABD ağırlıklı, ancak İngiltere, Kanada, Avustralya ve Hindistan’dan da vakalar var. Kararların büyük çoğunluğu hukuk davalarında avukatların yapay zeka ile hazırladığı dilekçelerde sahte içtihat atıfları tespit edilmesiyle ilgili.

En Çarpıcı Vakalar

MyPillow davası (Temmuz 2025). İki avukata 3.000’er dolar ceza. Dilekçede atıfta bulunulan mahkeme kararlarının birçoğu tamamen uydurmaydi. Mahkeme, avukatların “mesleki özen yükümlülüğünü ihlal ettiğine” hükmetti.

Morgan & Morgan vakası (2025). ABD’nin en büyük kişisel yaralanma firmalarından birinin avukatına 3.000 dolar ceza ve geçici kabul iptali. Yapay zeka ile hazırlanan bir dilekçede sahte karar atıfları tespit edildi. Firmanın büyüklüğü, vakanın etkisini artırdı - hiçbir büro bu riskten muaf değil.

New Orleans vakası. 1.000 dolar ceza. ChatGPT ile yazılan dilekçede var olmayan kararlar atıf gösterildi. Avukat, yapay zekanın çıktısını doğrulamadan mahkemeye sunduğunu kabul etti.

Kaliforniya temyiz vakası. 10.000 dolar yaptırım ve baroya sevk. Bu vaka, yaptırımların giderek ağırlaştığını gösteriyor.

Halüsinasyon Türleri ve Tespit Yöntemleri

Tamamen uydurulmuş karar. En yaygın tür. Yapay zeka, gerçekçi bir esas numarası, karar tarihi ve hatta hakim adıyla birlikte hiç var olmamış bir karar üretir. Tespit yöntemi: karar numarasını resmi veri tabanında aramak.

Gerçek karara sahte alıntı. En tehlikeli tür. Karar gerçekten var, ancak yapay zekanın atıfta bulunduğu paragraf veya ifade kararda yer almıyor. Karar numarası doğru olduğu için ilk kontrolde güven veriyor. Tespit yöntemi: kararın tam metnini okuyup atıfı doğrulamak.

Doğru atıf, yanlış argüman. En sinsi tür. Atıf yapılan karar doğru, alıntı doğru, ama yapay zekanın bu karardan çıkardığı hukuki sonuç yanlış. Tespit yöntemi: kararı kendi hukuki değerlendirmenizle karşılaştırmak.

Türkiye Perspektifi

Türk hukukunda yapay zeka kaynaklı hatanın niteliği henüz içtihatla netleşmemiş. Ancak mevcut çerçeve ip uçları veriyor.

Avukatlık Kanunu madde 34, avukatın “özen yükümlülüğünü” düzenliyor. Yapay zeka çıktısını doğrulamadan mahkemeye sunmak, bu yükümlülüğün ihlali olarak değerlendirilebilir.

TBB Meslek Kuralları açısından da avukatın müvekkilinin çıkarlarını korumak için gerekli özeni göstermesi gerekiyor. Sahte bir içtihata dayanan bir dilekçe, bu özenin gösterilmediğinin kanıtı olabilir.

Kurumsal Önlemler

Büro içi yapay zeka kullanım politikası artık zorunluluk. Bu politika en azından şunları kapsamalı: hangi araçların kullanılabileceği, doğrulama sürecinin nasıl işleyeceği, müvekkil verilerinin korunması kuralları ve sorumluluk dağılımı.

“İnsan doğrulama katmanı” standardize edilmeli. Her yapay zeka çıktısı, mahkemeye sunulmadan önce bir avukat tarafından birincil kaynaktan doğrulanmalı. Bu adım atlanamaz, kısaltılamaz, otomatize edilemez.

Mesleki sorumluluk sigortası boyutu da göz ardı edilmemeli. Yapay zeka kaynaklı hatalar, sigorta poliçeleri kapsamında mıdır? Bu sorunun cevabı, sigorta şirketleriyle proaktif olarak netleştirilmeli.