DOLAR 34,6630 0.03%
EURO 36,3410 -0.13%
ALTIN 2.935,250,14
BITCOIN 3222438-1.60774%
İstanbul
10°

KAPALI

06:28

SABAHA KALAN SÜRE

Uzmanlar yapay zekâ konusunda uyarıyor! Önlem alınmazsa nükleer enerji seviyesine denk riskler oluşabilir!
  • Haberm
  • Gündem
  • Uzmanlar yapay zekâ konusunda uyarıyor! Önlem alınmazsa nükleer enerji seviyesine denk riskler oluşabilir!

Uzmanlar yapay zekâ konusunda uyarıyor! Önlem alınmazsa nükleer enerji seviyesine denk riskler oluşabilir!

ABONE OL
14 Ağustos 2023 13:36
Uzmanlar yapay zekâ konusunda uyarıyor! Önlem alınmazsa nükleer enerji seviyesine denk riskler oluşabilir!
0

BEĞENDİM

ABONE OL

Yapay zekânın çok kıymetli bir güç olduğunu ve bu gücün tesir alanının süratle arttığını belirten uzmanlar, bu türlü bir gücün üretim ve kullanımının, rastgele bir tek elde toplanmasının dünya üzerindeki istikrarları değiştirebileceğini savunuyor. Yapay zekânın denetim edilmesi gereken periyoda yaklaşıldığına dikkat çeken Dr. Öğr. Üyesi Nuri Bingöl, önlem alınmadığı takdirde bu teknolojinin nükleer güç düzeyine denk riskler taşıyabileceğini vurguluyor. Yapay zeka kontrollerinin nasıl uygulanacağı sorusunun şimdi bir cevabı olmadığına değinen Bingöl, global bir otoriteden çok her ülkenin kendine nazaran mevzuat ve yönetmelikleri olması gerektiğini söz ediyor.

Üsküdar Üniversitesi SBF Dekan Yardımcısı, Yapay Zekâ Mühendisliği Yüksek Lisans Programı Anabilim Kolu Lideri Dr. Öğr. Üyesi Nuri Bingöl, yapay zeka modellerinin getirebileceği muhtemel riskleri ve bu risklerin nasıl denetim altına alınabileceği konusunda değerlendirmelerde bulundu.

Yapay zekâlar, büyük bir alanda birçok kişinin işini elinden alabilir 

Her şeye muktedir yapay zeka modellerinin muhtemel riskleri de beraberinde getirdiğini belirten Dr. Öğr. Üyesi Nuri Bingöl, “Kullanıcılarına büyük avantajlar sağlaması yüzünden, bu şahısların insanlığı avucunun içine alması üzere medyatik riskleri şu an için düşünmek gereksiz. Lakin çok daha yakında tesirleriyle yüzleşmemiz gereken birçok risk ve tehlike bizleri bekliyor.” dedi.

Sanayi devrimiyle birlikte, buharlı makinelerin insanların yapmış olduğu işleri elinden aldığını fakat bunun yanında çok daha fazla iş alanı oluşturduğunu hatırlatan Bingöl, “Yapay zekâ için ‘yeni iş imkânları oluşturacak’ dense de son vakitlerde her bölümden insanın da dikkatini çeken genel modeller, buharlı makineler üzere insanların yaptığı işleri daha verimli yapmak için tasarlanmadılar. İnsanların yapabileceği her türlü bilişsel faaliyeti yapabilmek için tasarlandılar. Bu da demektir ki yeni iş imkânı olarak gördüğümüz her şey bir müddet sonra tekrardan genel modeller tarafından öğrenilebilir. Sürecin hiçbir yerinde beşere gerek kalmaksızın faaliyet gösteren işletmeler oluşabilir. Yanlışsız yönetilmediği takdirde bu cins bir değişimin tesirleri dünya üzerinde çok yıkıcı olabilir. Genel amaçlı yapay zekâlar, doktorluktan avukatlığa, yazılım mühendisliğinden yöneticiliğe kadar büyük bir alanda, birçok kişinin işini elinden alabilir. Bunun yanında 7 gün 24 saat çalışıp insan meslektaşlarından çok daha ucuz bir maliyet oluşturabilir.” diye konuştu.

Bu kadar kıymetli bir gücün tek elde toplanması dünya üzerindeki istikrarları değiştirebilir

Yapay zekânın başka bir basamağı olan ‘model oluşturma ve geliştirme aşaması’ için merkezi kontrolün getirdiği risklerin düşünülmesi gerektiğine dikkat çeken Bingöl, bunun tek bir otorite tarafından yapılmasının kıymetli bir risk olduğunu söyledi.

Yapay zekânın çok değerli bir güç olduğunu ve bu gücün tesir alanının süratle arttığını belirten Bingöl, “Bu kadar kıymetli bir gücün üretim ve kullanımının, global yahut değil, rastgele bir tek elde toplanması dünya üzerindeki istikrarları değiştirebilir. Günümüzde nükleer gücün yarattığı sıkıntılar ve dünya güç istikrarı üzerindeki rolü ortada.” dedi.

Yeterli tedbirler alınmazsa yapay zekâ teknolojisi nükleer güç düzeyine denk riskler taşıyabilir

Yapay zekâ teknolojileri alanında kıymetli gelişmelere imza atmış bir şirket kurucu ve yöneticileri tarafından yayımlanmış bir makaleye değinen Dr. Öğr. Üyesi Nuri Bingöl, “Makalede, yapay zekâ teknolojilerinin sorumlu bir halde kullanılması ve gerçek formda denetlenmesi gerektiği söz ediliyor. Bu teknolojinin denetlenmediği takdirde, insan hayatı ve toplum üzerinde olumsuz tesirler yaratabilecek riskler taşıyabileceği söyleniyor. Makaleye nazaran, yapay zekânın memleketler arası kurumlar tarafından denetim edilmesi gereken periyoda yaklaşıldı ve kâfi tedbirler alınmadığı takdirde bu teknoloji nükleer güç düzeyine denk riskler taşıyabilecek.” formunda konuştu. 

Küresel gücün bir güçler topluluğuna dönüştürülmesi öteki sorular doğuruyor

“Bu nükleer güç ve risk benzetmesinden yola çıkarsak, yapay zekâ teknolojisinin de global yahut değil tek bir elde toplanmasının nasıl sonuçlar doğuracağı ve dünya güç istikrarına nasıl tesir edeceği açıktır.” diyen Bingöl, kelamlarına şöyle devam etti: 

“Bu riski azaltmak için, global gücün birden fazla aktörün olduğu bir güçler topluluğuna dönüştürülmesi ise diğer sorular doğuruyor. Global gücü temsil eden ögeler nasıl belirlenecek? Bu gücün kullanımı hangi süreçlere ve yetkilere bağlanacak? Uyuşmazlıklar nasıl giderilecek, onay ve veto hakları nasıl adil olarak yönetilecek?”

Yapay zekâ iyi yönetilmezse daha fazla meseleye ve güç dengesizliğine yol açabilir

Pandemi sürecinde Dünya Sıhhat Örgütü’nün çalışmalarından örnek veren Bingöl, “Dünya Sıhhat Örgütü, Birleşmiş Milletler’e bağlı olan ve toplum sıhhatiyle ilgili memleketler arası çalışmalar yapan epeyce saygın ve kabul gören bir örgüt. Buna karşın COVID-19 pandemisi devrinde, dünya üzerindeki toplumların tamamının acil sıhhat hizmetlerinden yararlanabilmesine ne derece katkı sağlayabildi? Pandemi periyodunda aşı geliştirme gücünü elinde bulunduran devletler, dünya istikrarı üzerinde tesirli oldularsa hangi güç bunu nasıl kullandı? Görüldüğü üzere, yapay zekâ denetim ve sonlandırmalarına tahlil olmasını beklediğimiz global otorite modeli, günümüzde öteki hususlarda deneyim ettiğimiz modellerin bütün problemlerine deva olamadı. Yapay zekâ kadar güçlü bir teknolojinin güzel yönetilmediği taktirde daha fazla meseleye ve güç dengesizliğine yol açabileceği ortada.” dedi.

Üretim ve kullanımın her kademesi birçok farklı ve bağımsız otoriteye yayılabilir

Yapay zekâ denetim ve sonlandırmalarının, global bir gücün elinde bulundurduğu tek bir merkeze bağlı ‘devre kesici’ üzere yapılar olmak zorunda olmadığını aktaran Bingöl, “Çeşitli standartları, çalışma ve iz bırakma çerçevelerini, yetki kontrolü alt yapılarını içeren, açık ve şeffaf denetlenebilir düzenlemeler, yasalar ve mevzuatlar olarak düşünülebilir. Bu hususta çeşitli aktörlerin rol ve sorumlulukları yasalar ve mevzuatlarla düzenlenebilir. Bu yetkiler dağıtılarak çok taraflı bağımsız denetimler sağlanabilir.   Denetim dışına çıkan, tehdit ve tehlike yaratan çalışma durumlarında uyulması gereken müdahale siyasetleri belirlenebilir. Bu siyasetler siber güvenlik prosedürlerinde olduğu üzere evvelce prova edilebilir ve denetlenebilir. Üretim ve kullanımın her evresi birçok farklı ve bağımsız otoriteye yayılabilir. Milletlerarası bir otorite ile modellerin oluşturulması ve eğitilmesi üzere süreçleri denetlemek yerine, bir model oluşturulduktan sonra ‘insanların hayatlarını nasıl etkiliyor ve insanlara ilişkin hakları ihlal ediyor mu?’ konusu denetlenmeli.” tabirlerini kullandı. 

Ulusal bir tehdit içermeyecek seviyede yapay zekâ kapasitesine muhtaçlık duyan kurumların önünde bir mani oluşmamalı

Her teknolojik gelişim üzere yapay zekâ teknolojisinin de gelişimi için kaynaklara, ticari modellere ve ilgiye muhtaç olduğunu dile Dr. Öğr. Üyesi Nuri Bingöl, “Yapay zekâ konusunda oluşturulacak kontrolün ve sonlandırmanın getireceği ek değerli yükleri olacak. Yeni ahenk süreçleri, zorunluluklar, süreçler finansman ve kaynak kullanımı sınırlandırmaları… Meğer, insanlık için varoluşsal yahut ulusal bir tehdit içermeyecek seviyede yapay zekâ kapasitesine muhtaçlık duyan kurumların önünde bir mani oluşmamalı.” dedi ve bu beklentiyi oluşturacak hudutların kim tarafından ve hangi kriterler ile belirleneceği sorusuna dikkat çekti.

Denetimin ‘nasıl’ uygulanacağı konusunun şimdi bir cevabı yok

Denetim ve sonlandırmaların nasıl uygulanacağı ile ilgili daha alınacak çok yol olduğunu tabir eden Bingöl, “Bunun için devlet kurumlarının, teknoloji üreticilerinin ve bu mevzunun fikir öncülerinin birlikte çalışması ve tahlil üretmesi kaçınılmaz. Bilhassa bu tahlillerin, gelişim önünde mahzur olmadan ‘nasıl’ uygulanacağı çalışma bahsidir ve şimdi bir karşılığı yok. Memleketler arası bir otorite oluşma fikri ise, bu karşılık bulduğunda bir mana taşıyacak. Memleketler arası bu otoritenin yetkilerinin ferdi, ulusal ve global güç sahibi firmalar ile nasıl ahenk sağlayacağı, kullanacağı kontrol sistemleri ve yetkileri üzere soruların da cevapları netleşecektir.” dedi.

Her ülkenin kendine nazaran mevzuat ve yönetmelikleri olmalı

Küresel bir otoriteden çok her ülkenin yahut ülkeler birliğinin, temel prensiplere ve ahenge sadık kalmak üzere, kendine nazaran uyarlayabileceği mevzuat ve yönetmelikleri olması gerektiğini lisana getiren Dr. Öğr. Üyesi Nuri Bingöl, “Karşılıklı yükümlülükler üzerine bir istikrar inşa edilmesi ülkemiz açısından da değerli riskleri bertaraf ederek, aksine avantajlar getirir.” dedi. 

Türkiye’nin, birçok milletlerarası tertip ve düzenlemelere tabi olduğunu, bunların getirdiği yükümlülüklere, bağımsızlığı ve güvenliğinden taviz vermeden ahenk sağladığı ve taahhütlerini yerine getirebildiğini hatırlatan Bingöl, kelamlarını şöyle tamamladı:

“Ülkemiz bunu sağlamak için gerekli resmi, kamu ve özel kurumlara, üniversite ve ar-ge merkezlerine, sivil toplum örgütlerine sahip. Bunlar ortasında eşgüdümü sağlayacak mevzuatları oluşturma deneyimi ve kapasitesi var. Global alanda Türkiye bu üzere tertiplerin da tam ortasında olmak zorunda. Güç istikrarını korumak ve kelam sahibi olmak üzere son yıllarda hayli gelişmiş yapay zekâ teknolojilerini üretmesi, kullanması ve geliştirmesi ile bu durumu hak ediyor. Ayrıyeten adalet, hak ve hukuk bahislerinde da yapay zekâ üzerinden öncü rolünü üstlenmeli.” 

 

Kaynak: (BYZHA) Beyaz Haber Ajansı

Bu yazı yorumlara kapatılmıştır.


HIZLI YORUM YAP
300x250r
300x250r

Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.