Yapay zekada ‘ayrımcılık’ riski

Yeditepe Üniversitesi Hukuk Fakültesi öğretim üyesi Prof. Dr. Mehmet Rıfat Tınç, yapay zekanın ayrımcılıktaki rolünü kıymetlendirdi ve Türkiye ile dünyada bu hususta alınan tedbirleri ele aldı.

Yapay zeka algoritmalarının, cinsiyet, yaş, köken üzere şahsî özelliklere dayalı olarak ayrımcılık yapabileceğini belirten Prof. Dr. Tınç, “Teknolojik bir objenin ayrımcılık yapması, onu hukuksal açıdan bir cürüm aletine dönüştürebilir. Bu nedenle yapay zekanın nasıl ve neden ayrımcılık yapabileceğini anlamak büyük değer taşıyor” dedi.

‘YAPAY ZEKA İKİ FARKLI FORMDA AYRIMCILIK YAPABİLİR’

Algoritmaların hukuk bilgisi ve toplumsal görgüsü olmadığı için ayrımcılık yapma ihtimali bulunduğunu vurgulayan Tınç, kelamlarını şöyle sürdürdü:

“Hatta bir yazılım, hukuk mantığını büsbütün benimsemiş olsa bile, ayrımcılık tezleriyle yargıya taşınacak tartışmalar kaçınılmaz olacaktır. Zira ne yazılımlar ne de robotlar, toplumun ve hukukun gelişimini durdurabilir”

Prof. Dr. Tınç, bu durumda bilhassa hukukçuların, yapay zeka ayrımcılığının ortaya çıkaracağı yeni ve kritik sorulara cevaplar üretmesi gerektiğinin altını çizdi. Prof. Dr. Tınç’, “Yapay zeka, iki farklı halde ayrımcılık yapabilir. Aritmetik ayrımcılık, birebir durumda olan şahıslara farklı muamele yapılması. Örneğin, birebir iş için tıpkı performansı gösteren iki kişinin farklı fiyat alması. Geometrik ayrımcılık ise farklı durumda olan şahıslara tıpkı muamele yapılması. Örneğin, bir imtihanda engelli bir bireye başkalarıyla tıpkı müddetin verilmesi” dedi.

‘MEVZUATIMIZDA DÜZENLEMELER YAPILMALI’

“Algoritmalar, beşerler üzere ahlâk sahibi olamazlar” diyen Tınç, şöyle devam etti: “Kendilerine dayatılan ahlâk kurallarının dışına çıkamazlar ya da kendi kendilerine bu kuralları geliştiremezler. Hasebiyle, yapay zekanın kesinlikle dışarıdan müdahaleye, insan eliyle revize edilmeye ve güncellenmeye açık olması gerekir. Müdahale edemediğimiz, revize edemediğimiz ve yalnızca kendi kendini geliştiren bir yapay zeka, ileride istemediğimiz sonuçlar doğurabilir. Bir müddet sonra bizi ilerletmek yerine geriletebilir ya da ahlâk anlayışımızın ve şuur yapımızın gerisinde kalabilir. Bu nedenle, Avrupa ve Japonya’da olduğu üzere, yapay zekanın yol açabileceği yanılgılar ve cürümler için mevzuatımızda yeni düzenlemeler yapılması gerekecektir.”

Yapay zekanın bir hukuk şahsı olmaması, sorumluluğun belirlenmesini zorlaştırıyor. Prof. Dr. Tınç, yapay zekayı geliştiren ve kullanan şirketler ile bireylerin, bu teknolojinin yol açtığı ziyanlar için sorumlu tutulabileceğini vurguladı. Ayrıyeten, yapay zekanın ayrımcılık yapmasını önlemek emeliyle şu önlemlerin alınabileceğini belirtti:

“Algoritmik Tedbirler: Algoritmaların tertipli olarak denetlenmesi ve önyargıların giderilmesi. Yazılımlarda sistematikleşme eğilimlerine karşı güncellemeler ve düzeltici formüllerin mecburî kılınması.

“Kurumsal Tedbirler: Yapay zekayı kullanan kurumların muhakkak aralıklarla denetlenmesi.

“İnsani Tedbirler: Yapay zeka sistemlerinin insan kontrolü altında tutulması. Örneğin, bir yapay zeka şikâyet ünitesi ya da “Yapay Zeka Adliyesi” oluşturulabilir.”

Tınç, hâlihazırda bilişim kabahatleriyle ilgilenen özel yetkili kurumlarımızın mevcut olduğunu hatırlatarak, yapay zeka mağdurlarının da dayanak alabileceği isimli kurumların kurulabileceğini tabir etti.

Prof. Dr. Mehmet Rıfat Tınç, şu değerlendirmelerde bulundu: “Yapay zekanın sunduğu fırsatların yanı sıra, ayrımcılık üzere önemli riskleri de bulunuyor. Bu riski minimize etmek için tüzel, teknik ve toplumsal seviyede tedbirler alınması gerekiyor. Yapay zekanın insanlığa hizmet etmesi için etik ve adil bir biçimde geliştirilmesi ve kullanılması büyük önem taşıyor.”

(DEMİRÖREN HABER AJANSI)

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir