Seyir Defteri

Askeri Yapay Zekâ Yarışı Durdurulsun

Teknoloji ve bilim dünyasının önde gelen birçok ismi, daha önce pek çok kez dikkat çektikleri yapay zekâ tehdidine karşı önlem alınması ve askeri amaçlı yapay zekâlı silahlar geliştirmesine yasak getirilmesi için ikinci bir açık mektup hazırladı. Ünlü fizikçi Stephen Hawking, Apple’ın kurucularından Steve Wozniak ve SpaceX’in CEO’su Elon Musk gibi isimlerin imzasını taşıyan mektup, “otonom silahların geliştirilmesinin devletler tarafından yasaklanmasını” talep ediyor. Böylece ordular arasındaki yapay zekâlı silah yarışının önlenmesi amaçlanıyor.

Future of Life Institute (Yaşamın Geleceği Enstitüsü) tarafından sunulan açık mektupta, insan müdahalesi olmadan savaşabilecek ve insanları öldürebilecek silahların engellenmesi gerektiği vurgulandı. Mektupta ayrıca önleyebileceğimiz halde bir silah yarışına izin vermenin, kalaşnikofların yerine geçecek geleceğin akıllı silahlarını yaratmak anlamına geleceği ifade edildi.
Buenos Aires’de düzenlenecek uluslararası yapay zekâ konferansında sunulacak olan mektup, belli kurum ve devletleri hedef almak yerine bu tehdide karşı küresel bir bilinç oluşturmayı hedefliyor.

Elon Musk
Elon Musk
Elon Musk’tan “Skynet” benzetmesi

Temmuz 2015’te teknoloji milyarderi Elon Musk’ın 10 milyon dolar bağışladığı enstitü, yapay zeka tehdidine karşı çözüm aramaya başlamıştı. Kurulan 37 ayrı araştırma ekibi, yapay zekanın insan kontrolünden çıkmamasını sağlayacak projeler üretecek. Musk ayrıca, Google’ın robotik araştırmalarının Terminator filminden hatırladığımız Skynet’e olan benzerliğine dikkat çekerek insanlığa tehdit oluşturabileceğini söylemişti. Musk’a göre yapay zeka nükleer bombalardan bile daha tehlikeli olabilir.

Stephen Hawking de uyarmıştı

Yapay zekânın tehdidi konusunda geçmişte birçok uyarıda bulunan Stephen Hawking, Ocak 2015’te hazırlanan ilk açık mektupta da başı çeken isim olmuştu. Hawking’in yanı sıra birçok bilim insanının imzası yer alan mektupta, yapay zekânın insan kontrolünden çıkmaması gerektiği ve bunun sağlanması için önlemler alınmasının şart olduğu belirtilmişti.

Profesör Stephen Hawking
Profesör Stephen Hawking

Hawking daha önce Aralık 2014’te BBC’ye yaptığı açıklamada, düşünen makineler yapmak için harcanan çabaların insanın varlığına tehdit oluşturduğunu belirtti. Şimdiye kadar geliştirilen ilkel yapay zeka türlerinin son derece yararlı olduğuna işaret eden Hawking, “Ancak insana yetişebilecek ya da insanın zekasını geçebilecek bir şey yaratmak, çok ciddi sonuçlara yol açabilir. Yapay zeka, kendi kendini geliştirmeye devam edebilir ve hatta kendini yeniden biçimlendirebilir. Son derece yavaş bir biyolojik evrimle sınırlı olan insanlar, bu tür bir güçle yarışamaz. Yapay zeka, yeryüzünde insan ırkının sonunu getirebilir” dedi.

Hawking, insanların yaptığı bazı işlerin akıllı makinelere devredilmesinin de milyonlarca kişinin işsiz kalmasına yol açarak farklı bir krize yol açabileceğine de işaret etti. Hawking ayrıca, internet şirketlerinin, ifade özgürlüğü ve özel hayatın korunması ilkelerinden ödün vermeden internetin oluşturduğu tehditleri ortadan kaldırmanın bir yolunu bulması gerektiğine dikkati çekti.

Bu yılın başında yine Future of Life Institute (FLI) tarafından hazırlanan ilk mektupta Hawking’in yanısıra Google’ın sahibi olduğu İngiliz yapay zekâ firması Deep Mind’ın kurucuları, Massachusetts Teknoloji Enstitüsü (MIT) profesörleri, IBM Watson süper bilgisayarını geliştiren mühendisler ve Microsoft Research biriminden bilim insanlarının da imzaları vardı.

http://futureoflife.org/AI/open_letter adresinden söz konusu mektuba ulaşabilir, imzalayanlar listesini inceleyebilir ve hatta siz de imzalayabilirsiniz.

Kaynak:  CNET, Al Jazeera, Twitter

Atilla Meriç

Bilim kurgu ile siyah beyaz tv'ler ve çizgi roman kitaplarıyla tanışmış, teknoloji ve kişisel bilgisayarların evlerimize girdiği teknoloji çağının ilk zamanlarına şahit olmuş kendini şanslı sayan biri.

Bir Cevap Yazın