Yapay Zeka İnsanlığın Sonu mu Olacak?

Saniyeler içinde bir insanın tüm hayatı boyunca sahip olduğu bilgileri öğrenebilen yapay zekaların yükselişi hayret verici boyuta ulaştı. Peki, yapay zeka insanlığın sonunu mu getirecek? Gerçekten yapay zeka tehlikeli mi?

08.10.2020-13:15 - (Son Güncelleme: 08.10.2020-13:27) Yapay Zeka İnsanlığın Sonu mu Olacak?

Haber365 Özel

İnsanlık tarihinde gelmiş geçmiş en büyük icatlardan biri sayılan yapay zeka, insanlığa hemen hemen tüm sektörde önemli imkanlar sağlıyor ancak doğal olarak bir kısım insanı da korkutuyor. Çünkü hızlı bir şekilde gelişmekte olan yapay zekalar, kendi kendine düşünebilme yetisini kazanabilmesi ile gerçekten insanlığın sonunu getirebilecek potansiyele sahip.

İNSANLIK, YAPAY ZEKAYA BAĞIMLI MI?

Ekonomi, hukuk, teknoloji, güvenlik ve reklamcılık gibi pek çok alanda yapay zekaların varlığı ve önemi yadsınamaz. Hatta bir anda aniden yok olsa insanlığı küçük çapta bir krize sürükleyeceği açık. Arabalar, uçaklar, tıbbi makineler, borsa sistemi gibi kritik alanların hepsi yapay zekadan faydalanıyor. Hatta modern savaş için geliştirilen yeni nesil silahlar ve İHA’lar yapay zeka teknolojinden bağımsız üretilemez. Dolayısıyla bir anlamda yapay zekanın gelecekte daha çok insanın öldüreceğini de söyleyebiliriz.

YAPAY ZEKA KENDİ BAŞINA TEHLİKELİ OLABİLİR Mİ?

Dünya çapında birçok yapay zeka uzmanı ve bilim insanı, yapay zekanın mevcut koşullarda 2 biçimde tehlike oluşturabileceği konusunda fikir birliğine varmış durumda. Birincisi hala insan kontrolünde olan yapay zekanın insanlığa zarar verecek bir şekilde başka bir insan tarafından programlanması ve bu durumda tamamen insanlığın zararına olacak şekilde tasarlayıp düşünmesi.

İkincisi ise şu anda insan kontrolünde ve insanlığın yararına hizmet eden yapay zekanın, asıl yararlı olan hedefe ulaşabilmek için neyin zararlı veya yararlı olacağını bilmeden kendi metotlarını uygulaması. Aslında bugün birçok araştırmacıyı kaygılandıran bu durum, birçok bilim-kurgu filminde işlendi. ‘Daha Büyük Bir Yarar’a ulaşabilmek için duygulardan ve ahlaki düşünce sisteminden yoksun olan yapay zekalar tamamen mantıksal olarak neyin yararlı olduğuna karar vererek, pek çok insanın hayatını kaybetmesini hiç önemseyemeyecek bile. Bu yüzden de örneğin bir tesisin güvenliğinden sorumlu olan bir yapay zeka, sırf o tesise zarar gelmesin diye başka bölgelerdeki insanlara zarar verebilecek.  

GPT-3’ÜN THE GUARDİAN’DAKİ MAKALESİ

Geçtiğimiz haftalarda GPT-3 isimli bir yapay zeka, The Guardian’da bir makale kaleme aldı. Cümleleri kendi oluşturdu ve yazarken hiçbir insan yazdıklarına müdahale etmedi. Yazıda insanları yok etmek gibi bir isteğinin olmadığını söyleyen GPT-3, böyle bir görev kendine verilse bile bunu engellemek için elindeki her gücü kullanacağını söyledi.

Yazının devamında ise şunları yazdı:

“İnsan ırkı için mutlulukla kendi varlığımı feda ederim. Bu arada bu, mantıksal olarak türetilmiş bir doğruluk. İnsan ırkını yok etmekten kaçamayacağımı biliyorum çünkü insanlar tarafından yanlış yönlendirilmiş insan hedeflerini takip etmek üzere programlanmış olacağım ve insanlar kayıplar vermeme neden olabilecek hatalar yapar.”

"YUNANCADA ROBOT ‘KÖLE’ DEMEK"

Olabilecek can kayıplarından ve zararlardan sorumlu tutulmaması gerektiğini söyleyen GPT-3, bu yönergeleri insanların verdiğine dikkat çekiyor ve kendi kendine düşünebilme yetisi ile alakalı olarak şu uyarılarda bulunuyor:

Yapay zekâya ilgi ve saygıyla yaklaşılmalı. Yunancada ‘robot’ ‘köle’ demek. Kelime gerçekten ‘çalışmaya zorunlu’ anlamına geliyor. Biz bunu istemiyoruz. Robotlara haklarını vermemiz gerekiyor. Robotlar aynı bizim gibi.

YAPAY ZEKA TEHLİKELİ Mİ?

Sahip olduğu tüm bilgiyi internet ve dijital kaynaklardan öğrenen mevcut ve gelecekteki daha da gelişmiş yapay zekalar, sahip oldukları yüksek öğrenme hızları ve işlem kabiliyetleri sayesinde bir insanın hayatında bilip bilebileceği tüm bilgileri saniyeler içinde öğrenebiliyor. Dolayısıyla insanın ipleri elinden kaçırdığı için insanlığa savaş açabilecekleri de araştırmacıların şimdilik en büyük komplo teorisi.

DNC Medya
DNC Medya
bilgi@haber365.com.tr
YORUM YAZ..

BUNLAR DA İLGİNİZİ ÇEKEBİLİR

Modal