Bakan Varank, G20 Dijital Ekonomi Bakanları Toplantısı’nda Konuştu

G20 temasları kapsamında katıldığı Dijital Ekonomi Bakanları Toplantısı’nda konuşan Sanayi ve Teknoloji Bakanı Varank, "Yapay zeka temelli teknolojilerde yapılacak en küçük hatalar dahi devasa kazalara sebep olabilir. İşte, Boeing 737 Max örneği ortada." dedi.

09.06.2019-13:16 - (Son Güncelleme: 09.06.2019-13:23)

Sanayi ve Teknoloji Bakanı Mustafa Varank, G20 temasları kapsamında katıldığı Dijital Ekonomi Bakanları Toplantısı’nın ikinci oturumunda konuşma yaptı.

YAPAY ZEKA İNSANOĞLUNUN ÇIKARLARINA HİZMET ETMELİ  

Bakan Varank yaptığı konuşmada, yapay zekanın, kapsayıcı büyümeyi, sürdürülebilir kalkınmayı ve küresel refahı teşvik ederek insanoğlunun çıkarlarına hizmet etmesi gerektiğini vurguladı.

DÜRÜST VE ADİL BİR EKOSİSTEM  

Varank, yapay zeka sistemleri tasarlanırken hukukun üstünlüğü ve demokratik değerlerin gözetilmesi, farklılıkların göz önünde bulundurulması gerektiğini belirterek, bu doğrultuda istikrarlı ve hassas bir süreç yürütülmesi, dürüst ve adil bir ekosistem oluşturulması gerektiğini ifade etti.

"BİR AVUÇ BÜYÜK ŞİRKETİN İNSİYATİFİNE BIRAKILAMAZ"  

Hükümetlerin, güvenilir bir yapay zeka sistemi için çok paydaşlı ve uzlaşıya dayalı küresel teknik standartlar geliştirmesi gerektiğini dile getiren Varank, "Yapay zeka temelli teknolojilerde yapılacak en küçük hatalar dahi devasa kazalara sebep olabilir. İşte, Boeing 737 Max örneği ortadadır. Bu kazalarda yitirilen hayatların, hava yolu şirketlerinin kaybettiği milyarlarca doların hesabını kim verebilir? Bundan dolayıdır ki yapay zekanın geleceği uzay ve havacılık sanayisinde olduğu gibi bir avuç büyük şirketin inisiyatifine bırakılamaz. Biz Türkiye olarak yapay zeka ile ilgili meselelerin ele alınacağı, her ülkenin eşit haklara sahip olduğu küresel bir oluşum kurulması taraftarıyız. Yaptığımız G20 toplantısının en büyük çıktısının da bu yolda atılacak adımlar olduğu görüşündeyiz." ifadelerini kullandı.

Son Dakika Gündem Haberleri için aşağıya kaydırın.

DNC Medya
DNC Medya
bilgi@haber365.com.tr
YORUM YAZ..

BUNLAR DA İLGİNİZİ ÇEKEBİLİR

Modal