YAPAY ZEKA YASASI KANUN TASLAĞIMIZIN OECD VE AB DÜZENLEMELERİ BAĞLAMINDA İNCELEMESİ
- İrem Nalbant
- 29 Ağu
- 4 dakikada okunur
24 Haziran 2024 tarihinde Türkiye’nin ilk yapay zeka yasasına ilişkin kanun taslağı TBMM’ye sunuldu. Teklif ile, yapay zeka teknolojilerinin güvenli, etik ve adil bir şekilde kullanılmasının sağlanması, kişisel verilerin korunmasının temin edilmesi, gizlilik haklarının ihlal edilmesinin önlemesi ile yapay zeka sistemlerinin geliştirilmesi ve kullanımına yönelik düzenleyici bir çerçevenin oluşturulmasının amaçlandığı belirtilmiştir.
Yasa tasarısında, yapay zeka “insan benzeri bilişsel işlevleri yerine getirebilen ve öğrenme, mantık yürütme, problem çözme, algılama ve dil anlama gibi yeteneklere sahip bilgisayar tabanlı sistemler” olarak tanımlanmış olup yapay zeka sistemlerine ilişkin sağlayıcılar, dağıtıcılar, kullanıcılar, ithalatçılar ve distribütörler ise “yapay zeka operatörleri” olarak tanımlanmıştır.
OECD’nin yapay zekaya ilişkin -bağlayıcı olmayan- tanım ve görüşleri ise 2019 yılında yayınlanmış, ardından Mayıs 2024'te güncellenmiştir. OECD’nin yaptığı tanımda ise şöyle denmiştir: ”Bir yapay zeka sistemi, farklı düzeylerde özerklikle çalışmak üzere tasarlanmış ve ‘dağıtımdan sonra uyarlanabilirlik' gösterebilen makine tabanlı bir sistemdir. Bu sistem, açık veya örtük hedefler doğrultusunda aldığı girdilerden, fiziksel veya sanal ortamları etkileyebilecek tahminler, içerikler, öneriler veya kararlar gibi çıktılar üretmek için çıkarımlar yapar.” "Dağıtımdan sonra uyarlanabilirlik” ifadesi, yapay zekanın eğitildikten sonra başlangıçta programlandığı haliyle sınırlı kalmaması; aksine, zamanla öğrenmesi, gelişerek performansını iyileştirmesini ifade etmektedir.
Her iki tanımda da, belirli bilişsel işlevleri yerine getiren ve belirli görevlerde uzmanlaşmış sistemler nazara alınmış ve dar yapay zeka modelleri tanımlanmıştır. Her ne kadar henüz bir uygulaması mevcut olmasa da, tanımlarda “yapay zeka” olarak verilen bilgilerin “dar yapay zeka”ya yönelik olduğunu belirtmek gerekir. Yasa tasarısında ayrıca yapay zeka teknolojilerinin kullanıcılar ve kamu düzeni açısından güvenli bir şekilde kullanılabilmesi için gerekli olan temel prensiplere değinilmiş, yapay zeka sistemlerinin toplum yararına hizmet etmesi ve bireylerin haklarının korunmasını sağlamak amacıyla bazı ilkeler belirlenmiştir. Bu ilkeler güvenlik, şeffaflık, adillik, hesap verebilirlik ve gizlilik olarak sıralanmıştır. OECD tarafından altı çizilen ilkeler ise insan hakları ve demokratik değerler, adillik, gizlilik, şeffaflık, açıklanabilirlik, sağlamlık, güvenlik ve sorumluluk şeklinde olmuştur.
Bu ilkeler, yapay zekayı güvenilir bir şekilde geliştirmek için yapay zeka aktörlerine rehberlik etmesi ve etkili yapay zeka politikaları için öneri olarak belirlenmiştir. Yasa tasarısındaki “güvenlik” ilkesi altında incelenebilecek olan “sağlamlık” (robustness) ilkesi, algoritmaların ve kararların doğru ve adil olduğundan emin olunmasıdır. Robust bir sistem, yanlış anlamaları veya hatalı sonuçları önleyerek, kullanıcının yapay zekanın işlemlerine duyduğu güveni karşılamaktadır.
Yapay zekanın en büyük sorunlarından olan ön yargılı yapay zeka (ai bias) konusu göz önüne alındığında, sağlamlık başlığının ayrı bir ilke olarak ele alınması ve kanunda detaylıca düzenlenmesi yerinde olacaktır. Yasa tasarısının devamında yapay zeka sistemlerinin geliştirilmesi ve kullanımı sırasında ortaya çıkabilecek risklerin belirlenmesi, bu risklere yönelik önlemlerin alınması ve yüksek risk taşıyan sistemlerin uygunluk değerlendirmesine tabi tutulması gerekliliği vurgulanmıştır. Denetim makamlarına bu konuda denetleme ve ihlalleri tespit etme yetkisi verilmiştir.
Risk temelli yaklaşım Avrupa Birliği Yapay Zeka Kodu’nda (EU AI Act) benimsenmiş olup yapay zeka uygulamalarının risk seviyeleri ve hangi risklerin kabul edilemez olduğu incelenmiştir.
Bu kapsamda aşağıdaki gibi dört kategori belirlenmiştir:
Açıkça Yasaklanması Gereken Sistemler: Bu uygulamalar, bireylerin güvenliği, geçim kaynakları ve hakları için kabul edilemez bir risk oluşturduğu düşünülen uygulamalar olarak nitelenmiştir. Aşağıdaki şekilde gruplandırılmışlardır:
• Zararlı manipülatif 'üstbilinç teknikleri' kullanan yapay zeka sistemleri.
• Belirli savunmasız grupları (fiziksel veya zihinsel engelli bireyler) hedef alan yapay zeka sistemleri.
• Kamu otoriteleri tarafından veya adlarına sosyal puanlama amaçlarıyla kullanılan yapay zeka sistemleri.
• Hukuki sınırlı durumlarda dışında, kolluk kuvvetlerinin kullanması için kamuya açık alanlarda canlı biyometrik tanımlama sistemleri.
Düzenlemeye (Sınırlamaya) Tabi Tutulması Gereken Sistemler: Bu sistemler, bireylerin güvenliği veya temel haklarını olumsuz etkileyebilecek potansiyele sahip olarak belirlenmiştir ve iki kategori arasında ayrım yapmaktadır:
• Ürünlerin güvenlik bileşeni olarak kullanılan veya AB sağlık ve güvenlik uyumlaştırma mevzuatı kapsamında olan sistemler (örneğin oyuncaklar, havacılık, otomobiller, tıbbi cihazlar, asansörler).
• Komisyon'un yetki verilen eylemler aracılığıyla gerekt iğinde güncelleyebileceği eklerde belirtilen sekiz özel alanda kullanılan sistemler.
Bu tür yüksek riskli yapay zeka sistemleri piyasaya sürülmeden veya hizmete konulmadan önce risk yönetimi, teknik dayanıklılık, veri eğitimi ve yönetimi, şeffaflık, siber güvenlik gibi bir dizi gereksinimi karşılamak zorunda olduğu belirtilmiştir.
Sınırlı Risk Taşıyan Yapay Zeka Sistemleri: Bu kategori, insanlarla etkileşim halinde olan (örneğin, sohbet botları), duygu tanıma sistemleri, biyometrik sınıflandırma sistemleri ve görüntü, ses veya video içeriği oluşturan veya manipüle eden yapay zeka sistemlerini içermektedir. Bu sistemler, sınırlı bir şeffaflık yükümlülüğüne tabi olmalıdır, denmiştir.
Düşük veya Minimum Risk Taşıyan Diğer Yapay Zeka Sistemleri: AB içinde geliştirilebilecek ve kullanılabilecek diğer tüm yapay zeka sistemleri, ek hukuki yükümlülüklere gerek duyulmaksızın kullanılabilir. Ancak yine de, yüksek riskli olmayan yapay zeka sistemleri sağlayıcılarını, yüksek riskli yapay zeka sistemleri için zorunlu gereksinimleri gönüllü olarak uygulamaya teşvik etmek için davranış kuralları oluşturulması öngörülmüştür.
Görüldüğü üzere AB, yapay zeka sistemlerinin minimum risk taşıyanlarının dahi yüksek risk taşıyanlar kadar korunaklı standartlara sahip olması gerektiğini öngörmektedir. Bu bağlamda yapay zeka uygulamalarının oluşturulması, geliştirilmesi ve kullanımına istisnai bir bakış açısıyla bakıldığı söylenebilir.
TBMM’ye sunulan yasa taslağının gerekçesinde de, “Risk değerlendirmesi ve uygunluk değerlendirmesi mekanizmaları, yapay zeka sistemlerinin topluma fayda sağlamasını ve olası zararların en aza indirilmesini hedeflemektedir. Yüksek risk içeren yapay zeka sistemleri için özel güvenlik önlemleri ve sürekli izleme mekanizmaları oluşturularak, bu sistemlerin güvenilirliği ve doğruluğu sağlanmalıdır.” denerek benzer bir risk bazlı yaklaşım vurgusu yapılmıştır.
Tasarıda ayrıca, yasak yapay zeka uygulamalarının kullanılması, kurallara riayet etmeyen operatörler ve denetim makamlarına yanlış bilgi sağlanması gibi ihlaller açısından “para cezası “uygulanacağı düzenlenmiştir. Neticede mevcut yasa tasarısının gerek OECD gerek AB öneri veya düzenlemelerine yabancı olmadığını, yapay zeka kullanımının kullanıcı dostu hale getirilebileceğini söylemek mümkündür.
KAYNAKÇA:
1.https://cdn.tbmm.gov.tr/KKBSPublicFile/D28/Y2/ T2/WebOnergeMetni/e50ccc8a-ab90-45faa553-76b880c78fb8.pdf
2. https://www.europarl.europa.eu/RegData/ et udes /BR I E/2021/698792/ EPRS_BRI(2021)698792_EN.pdf




Yorumlar