Dünya

Yapay zeka mahkeme salonlarına hangi hataları taşıyor?

Dünyanın pek çok ülkesinde dava dosyalarında görülen ve yapay zekadan kaynaklanan ‘halüsinasyonlar’ yargıçları çileden çıkarıyor. Uzmanlar, sorunun daha da kötüleşeceğini öngörüyor.

Yapay zeka sohbet robotları tarafından üretilen uydurulmuş referanslar ve hatalı bilgiler olarak ‘halüsinasyonlar’ dava dosyalarında giderek daha fazla yer alıyor. Ve bu durum yargıçları çileden çıkarmaya başlıyor. 

ABD’de Kaliforniyalı bir yargıç Michael Wilner, bazı avukatların bir dosyada öne sürdükleri bir dizi argümandan etkilendi. Alıntı yaptıkları makaleleri takip ederek bu argümanlar hakkında daha fazla bilgi edinmeye çalıştı. Ancak makaleler mevcut değildi. Avukatlık bürosundan daha fazla ayrıntı istedi ve hukuk bürosu ilkinden daha fazla hata içeren yeni bir metinle yanıt verdi. Yargıç, avukatlara hataları açıklayan yeminli ifadelerini vermelerini emretti ve bu ifadelerde, tanınmış bir hukuk bir firması Ellis George LLP firmasından bir avukatın belgeyi yazarken Google Gemini'nin yanı sıra hukuka özgü yapay zeka modellerini kullandığını ve bunun da yanlış bilgi ürettiğini öğrendi. Yargıç firmaya 31.000 dolar para cezası verdi. 

Kaliforniya’da müzik yapımcılarının telif hakkı ihlali nedeniyle açtığı bir başka davada, davalı yapay zeka şirketi Anthropic tarafından sunulan bir belgede davaya bakan yargıç yeni bir yapay zeka halüsinasyonu tespit etti. Şirketin avukatlarından biri, Anthropic’in yapay zeka modeli Claude’a bir hukuk makalesi için kaynakça üretmesini istemişti. Ancak Claude, yanlış başlık ve yanlış yazar ismi içeren bir referans oluşturdu. Anthropic’in avukatı, bu hatanın belgeyi inceleyen hiç kimse tarafından fark edilmediğini kabul etti. 

İsrail'de görülen bir davada ise polis, bir kişiyi kara para aklama suçlamasıyla tutukladıktan sonra, İsrailli savcılar, sanığın telefonunu delil olarak saklamak için hakimden izin istedi. Sanık avukatları polisin cihazının iade edilmesine karşı kullandığı hukuki argümanda İsrail hukukunda bulunmayan kanunlara atıfta bulunduğunu ve bunun ChatGPT’den alınmış olabileceğini fark etti. Savcılar durumun böyle olduğunu kabul etti ve yargıçtan azar işittiler.

Kanada’daki Waterloo Üniversitesi Bilgisayar Bilimleri Fakültesi ve Osgoode Hall Hukuk Fakültesi'nde ders veren ve üretken yapay zekanın mahkemeler için yarattığı sorunları ilk zamanlarda açıkça eleştiren Maura Grossman’a göre halüsinasyonlar "yavaşlamış gibi görünmüyor. Aksine, hızlandılar." Ve davalarda yapılan bu hataların adı sanı duyulmamış yerel firmalarla ilgili tek seferlik davalar olmadığını söylüyor. Bu hatalar büyük avukatların hukuk firmaları tarafından da yapılıyor. Bu tür yapay zeka kaynaklı hataların, avukatların kendileri tarafından yazılmayan belgelerde daha sık ortaya çıkmasından endişe ediyor.

Grossman'a göre yapay zeka kullanımı konusunda avukatlar iki gruba ayrılıyor: "Birincisi ölesiye korkuyor ve hiç kullanmak istemiyor." Ama bir de erken benimseyenler var. Bu avukatlar, zaman sıkıntısı çeken veya bir dava dosyasında yardımcı olacak başka avukat kadrosu olmayan hukukçular. Kısıtlı sürelerdeki takvimlerinde dosyalacaklarını yazmalarına yardımcı olacak teknolojiye oldukça hevesliler. Ancak bu grup, yapay zekanın ürettiği içeriği her zaman dikkatle ve yeterince titiz şekilde kontrol etmiyor. 

Grossman şöyle diyor: “Bu büyük dil modelleri çok akıcı olduğu için, aynı zamanda doğru olduklarını da varsayıyoruz. Otoriter bir tonla konuştukları için hepimiz farkında olmadan güvenme moduna geçiyoruz.” Avukatların, stajyerlerin ve genç meslektaşlarının işlerini kontrol etmeye alışkın olduğunu belirten Grossman, buna rağmen nedense aynı şüpheciliği yapay zekâya karşı uygulamadıklarını söylüyor.

Öte yandan New York Times’ın haberine göre sohbet robotlarının inandırıcı görünen ancak yanlış bilgiler üretebilmesi hukuk öğrencilerini de yanıltabilir. Hukuk fakültesi profesörleri tarafından yapılan yakın tarihli bir çalışmada, üç popüler yapay zeka aracının, bir hukuk dersi kitabını özetlerken “önemli” hatalar yaptığı ve bu durumun öğrenme açısından “kabul edilemez bir zarar riski” taşıdığı ortaya kondu.

Kaynaklar: Massachusetts Teknoloji Enstitüsü MIT Technology Review - New York Times

:
share
Siteyi Telegram'da Paylaşın
Siteyi WhatsApp'ta Paylaşın
Siteyi Twitter'da Paylaşın
Siteyi Facebook'ta Paylaşın