Avrupa Birliği Yapay Zekalar ile ilgili hukiki düzenlemeye hazırlanıyor

Avrupa Birliği son yıllarda hızla gelişen ChatGPT ve benzeri yapay zeka teknolojilerinin hızla yaygınlaşmasının ardından hukuki süreç için harekete geçti. AB, yapay zeka araçlarının kullanımına ilişkin katı kurallar getirmeye hazırlanıyor.

Yapay zekanın günümüzde üretim, sağlık, finans, eğitim, ulaşım ve güvenlik gibi farklı alanda yaygın biçimde kullanıma girmesiyle bu teknolojiye yönelik kuralların açık biçimde belirlenmesi ciddi önem taşıyor.

AB’nin henüz ChatGPT veya benzeri yapay zeka sistemleriyle ilgili bir düzenlemesi bulunmuyor ancak AB Komisyonu 2 yıl önce yapay zeka konusunda yeni kurallar çerçevesini içeren ilk yasal düzenleme teklifini hazırlayıp üye ülkeler ve Avrupa Parlamentosu’na (AP) sunmuştu.

Bu teklif, yapay zeka sistemlerinin kullanımında birtakım sınırlama ve şeffaflık kuralları getiriyordu.Bu önerinin yasalaşması halinde, ChatGPT gibi yapay zeka sistemlerinin de bu kurallara uygun olarak kullanılması gerekecek.

AA’nın haberine göre, bütün üye ülkelerde aynı şekilde uygulanması beklenen yapay zekaya yönelik yeni kurallar risk temelli bir yaklaşım getiriyor. Komisyonun yasa teklifinde, yapay zeka sistemleri kabul edilemez risk, yüksek risk, sınırlı risk ve minimum risk olmak üzere 4 ana gruba ayrılıyor. İnsanların can güvenliğine, geçim kaynaklarına ve haklarına ilişkin açık tehdit olduğu düşünülen yapay zeka sistemleri kabul edilemez risk grubunda yer alıyor. Bu alanlardaki sistemlerin kullanımının yasaklanması bekleniyor.

Bireylerin özgür iradesine karşı olan, insan davranışını manipüle eden veya sosyal puanlama gerçekleştiren yapay zeka sistemleri veya uygulamaları da yasak kapsamında.

Kritik altyapı, eğitim, ameliyat, işe alım sürecinde CV değerlendirme, kredi derecelendirme, deliller, göç, iltica ve sınır yönetimi, seyahat belgelerinin doğrulanması, biyometrik kimlik belirleme sistemleri, yargı ve demokratik süreçler ise yüksek risk grubuna giriyor.

Yüksek risk grubuna dahil alanlara katı koşullar getirilirken, bu gruptaki yapay zeka sistemlerinin piyasaya sunulmadan önce uyması gereken sıkı yükümlülükler getiriliyor. Bu sistemlerin ayrımcılık yapmaması, sonuçların gözlemlenebilir olması ve yeterli ölçüde insan gözetimine tabi tutulması gerekiyor.

Kurallar kapsamında emniyet birimleri terör ve ciddi suçlar gibi özel durumlarda halka açık alanlarda biyometrik kimlik saptama sistemlerini özel durumlarda kullanabilecek. Ancak yapay zeka sistemlerinin bu tür kullanımları sınırlı tutulacak ve adli kuruluşun izine tabi olacak.

Sınırlı risk grubunda yer alan yapay zeka sistemleri de belirli şeffaflık yükümlülüğüne uymak zorunda olacak.

Kaynak:https://www.reuters.com/technology/us-begins-study-possible-rules-regulate-ai-like-chatgpt-2023-04-11/

Önerilen...

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir