Dünya

ABD’de avukatlara yeni yapay zeka cezası

ABD’de bir yargıç, bu hafta yayımladığı kararında yapay zekaya güvenerek dosyalarında yasalara uygun olmayan iddialarda bulundukları için iki avukatın her birine 3.000 dolarlık para cezası verdi.

ABD Colorado Bölge Mahkemesi Yargıcı Nina Y. Wang, pazartesi günü verdiği kararla, 2020 başkanlık seçimleri hakkında komplo teorileri yaymasıyla bilinen MyPillow'un kurucusu Mike Lindell'i temsil eden iki avukata yaptırım uyguladı.

Yargıç Wang, şubat ayında avukatların Lindell'e karşı açılan bir iftira davasında "yaklaşık 30 hatalı alıntı" içeren bir savunma sunduğunu söyledi. Wang, avukatların müdafaalarında mahkeme kararlarının yanlış aktarıldığını, hukuk ilkelerinin çarpıtıldığını ve "en kötüsü" "var olmayan davalara" atıfta bulunulduğunu belirtti.

Yargıç, Lindell’in iki avukatının "yapay zekâ kullanımı veya avukatın büyük dikkatsizliği olmadan" bu tür hataların dosyaya nasıl yansıyabileceğini açıklamadıklarını söyledi.

Avukatların mahkeme dosyalarında öne sürdükleri iddiaların yasalara uygun olması gerektiği kuralını ihlal ettiklerini tespit etti. Her birine 3.000 dolar para cezası verdi ve bunu "bu durumda savunma avukatlarını caydırmak ve cezalandırmak için yeterli olan en hafif yaptırım" olarak nitelendirdi.

Amerikan Barolar Birliği, avukatlar için üretken yapay zekanın kullanımıyla ilgili ilk etik rehberinde, geçen yıl birçok avukatın sağladıkları hukuki hizmetlerin verimliliğini ve kalitesini artırmak için yapay zeka araçlarını kullandığını belirtti. Ancak baro, bu tür araçlara "eleştirel olmayan bir şekilde güvenmenin" "müvekkillere yanlış hukuki tavsiye verilmesine veya mahkemelere ve üçüncü taraflara yanıltıcı beyanlarda bulunulmasına" yol açabileceği konusunda uyardı.

Avukatların, müvekkillerine yetkin temsil sağlama görevlerini ihlal etmediklerinden emin olmak için yapay zeka tarafından üretilen içeriklerin "uygun derecede bağımsız bir şekilde doğrulanması veya incelenmesi" gerektiği kaydedildi.

İngiltere ve Galler Yüksek Mahkemesi de avukatları uyardı

Geçtiğimiz ay İngiltere ve Galler Yüksek Mahkemesi, bir dizi davada var olmayan uydurma alıntılar ve gerçekte olmayan kararların yer almasının ardından, avukatları yapay zeka tarafından oluşturulan sahte materyal sundukları takdirde cezai kovuşturmayla karşı karşıya kalabilecekleri konusunda uyardı.

Ülkenin en kıdemli yargıçlarından biri, nadir görülen bir müdahalede bulunarak, avukatlara yönelik mevcut rehberliğin "yapay zekanın kötüye kullanımını ele almakta yetersiz kaldığını" ve acilen daha fazla adım atılması gerektiğini söyledi.

Yüksek Mahkeme'nin King's Bench Bölümü Başkanı Victoria Sharp ve ikinci yargıç Jeremy Johnson'ın verdiği kararda, mahkemede sunulan yazılı hukuki savunmalarda sahte materyalin kullanıldığı iki yeni davanın ayrıntıları yer aldı.

İki bankaya karşı açılan ve geçen ay reddedilen bir davada davacı ve avukatı, yapay zeka araçlarının "yanlış ve uydurma" materyal ürettiğini itiraf etti.

Nisan ayında sonuçlanan diğer davada ise, yerel meclise dava açan bir adamın avukatı, savunmasında atıf yaptığı bir dizi var olmayan davanın kaynağını açıklayamadı.

Yargıç Sharp, "Yapay zekanın kötüye kullanılması durumunda adaletin sağlanması ve adalet sistemine olan kamu güveni açısından ciddi sonuçlar doğabilir" diye yazdı ve avukatların yapay zeka tarafından üretilen sahte materyalleri kullanmaları nedeniyle cezai suçtan hüküm giyebilecekleri veya avukatlık yapmaktan men edilebilecekleri konusunda uyardı.

Kararda, "ChatGPT gibi yapay zeka araçlarının güvenilir hukuki araştırmalar yürütemeyeceği" ve "görünüşte tutarlı ve makul yanıtlarının tamamen yanlış çıkabileceği" uyarısı yapıldı. ChatGPT’nin “tamamen doğru olmayan, kendinden emin iddialarda” bulunabileceği ve “var olmayan kaynaklara atıfta bulunabileceği" vurgulandı.

Kararda ayrıca yapay zeka araçlarının yasaları yanlış yorumladığı, kararlardan sahte alıntılar oluşturduğu veya resmi tebligatlar için var olmayan davalar uydurduğu Kaliforniya, Minnesota ve Teksas'ın yanı sıra Avustralya, Kanada ve Yeni Zelanda'daki diğer davalar da sıralandı.

2023 sonlarından bu yana, Vectara adlı bir Silikon Vadisi şirketi, sohbet robotlarının ne sıklıkla gerçeklerden saptığını izliyor. Bunu ölçmek için, sohbet robotlarından kolayca doğrulanabilir basit bir görev olarak, belirli haber içeriklerini özetlemelerini istiyorlar. Ancak bu durumda bile sohbet robotları ısrarla uydurma bilgiler üretmeye devam ediyor. Şirkete göre, önde gelen sistemler zamanın %0,7 ila %2,2'sinde halüsinasyon görüyor (yani yanlış bilgi uyduruyor); bazı diğer sistemlerde ise bu oran önemli ölçüde daha yüksek.

Ancak birçok avukatın yaptığı gibi insanlar sohbet robotlarından büyük miktarda metni sıfırdan oluşturmalarını istediğinde, halüsinasyon oranları daha da yükseliyor. ChatGPT'nin arkasındaki şirket OpenAI, yakın zamanda en yeni teknolojilerinin genel sorulara cevap verirken %51 ila %79 oranında halüsinasyon gördüğünü açıkladı. Önceki teknoloji ise bu sorularda %44 oranında halüsinasyon görüyordu.

Haberin tamamını New York Times’dan okuyabilirsiniz.

:
share
Siteyi Telegram'da Paylaşın
Siteyi WhatsApp'ta Paylaşın
Siteyi Twitter'da Paylaşın
Siteyi Facebook'ta Paylaşın