Google'ın eski Üst Yöneticisi (CEO) Eric Schmidt, yapay zeka teknolojilerinin gelecekteki potansiyel tehditlerine dikkat çekerek korkutucu bir iddiada bulundu. Schmidt, yapay zeka teknolojilerinin terörist gruplar tarafından "masum insanlara zarar vermek" amacıyla kullanılabileceği konusunda hükümetleri uyararak, "özel teknoloji şirketlerini denetleme" çağrısında bulundu. Schmidt'in bu çıkışı, yapay zekanın sadece faydaları ve potansiyel fırsatları değil, aynı zamanda riskleri ve tehditleri hakkında da ciddi bir tartışmayı tetikledi. Teknoloji dünyasını ve siyasi çevreleri tedirgin eden bu iddia, yapay zekanın gelecekteki güvenlik riskleri konusunda kaygıları artırdı.
Kuzey Kore, iran ve rusya biyolojik silah yapabilir iddiası
Eric Schmidt, yapay zeka teknolojilerinin terörist grupların yanı sıra "Kuzey Kore, İran ve Rusya gibi ülkeler" tarafından da kötüye kullanılabileceği endişesini dile getirdi. Schmidt, bu ülkelerin yapay zeka teknolojilerini "biyolojik silah yaratmak için" kullanabileceğini ileri sürerek, bu durumun uluslararası güvenlik ve barış açısından büyük bir tehdit oluşturabileceğine dikkat çekti. Schmidt'in bu iddiası, yapay zekanın savaş ve silahlanma alanındaki potansiyel kullanım alanlarını ve bunun uluslararası arenadaki etik ve güvenlik tartışmalarını yeniden gündeme taşıdı. Bazı uzmanlar, yapay zekanın biyolojik silah geliştirmede kullanılmasının şimdilik teorik bir risk olduğunu ancak teknolojinin hızlı gelişimi dikkate alındığında bu olasılığın ciddiye alınması gerektiğini vurguluyor.
11 Eylül saldırıları örneğiyle uyarı
Schmidt, yapay zeka destekli terör saldırıları konusundaki endişesini daha somut hale getirmek amacıyla, 11 Eylül 2001 saldırılarını örnek verdi. 11 Eylül 2001'de uçakların kontrolünü ele geçiren teröristlerin ABD'de düzenlediği ve çok sayıda kişinin ölümüyle sonuçlanan saldırıları hatırlatan Schmidt, benzer bir olayın yapay zeka teknolojileri kullanılarak yaşanma riskine işaret etti. Schmidt'in bu uyarısı, yapay zekanın sadece biyolojik silahlar değil, aynı zamanda terörist saldırılar için de yeni bir araç haline gelebileceği ve güvenlik güçlerinin bu yeni tehdide karşı hazırlıklı olması gerektiği şeklinde yorumlandı. 11 Eylül saldırıları örneği, yapay zeka tehdidinin ciddiyetini vurgulamak ve hükümetlerin önlem alma gerekliliğini göstermek amacıyla kullanıldı.
Özel teknoloji şirketleri denetlenmeli çağrısı
Yapay zeka teknolojilerinin gelecekte büyük ölçüde özel şirketler tarafından geliştirileceğini belirten Schmidt, bu teknolojilerin kötü amaçlar için kullanılmasının önüne geçilebilmesi adına, özel şirketlerin hükümetler tarafından denetlenmesi çağrısı yaptı. Schmidt, "Hükümetlerin ne yaptığımızı anlamaları ve gözlerini üzerimizden ayırmamaları gerçekten önemli" ifadelerini kullanarak, devletlerin yapay zeka teknolojileri geliştiren şirketler üzerinde denetim mekanizmalarını kurması ve düzenlemeler yapması gerektiğini vurguladı. Ancak Schmidt, denetlemelerin ve düzenlemelerin "aşırıya kaçması halinde inovasyonun engellenebileceği" konusunda da uyararak, dengeleyici bir yaklaşım benimsenmesi gerektiğinin altını çizdi. Schmidt'in bu çağrısı, yapay zeka teknolojilerinin gelişiminin sadece teknolojik bir konu olmadığını, aynı zamanda etik, sosyal ve güvenlik boyutlarının da dikkate alınması gerektiğini vurguluyor.
Çocukların akıllı telefon kullanımı da denetlenmeli
Schmidt, yapay zeka teknolojilerinin güvenlik risklerinin yanı sıra, çocukların yapay zeka destekli akıllı telefon kullanımına da değinerek bu konuda da denetimlerin önemine işaret etti. Schmidt, çocukların "çevrim içi dünyanın kötülüklerinden" korunması gerektiğini vurgulayarak, çocukların yapay zeka teknolojilerinin zararlı içeriklerine ve etkileşimlerine maruz kalmaması için ebeveynlerin ve yetkililerin daha duyarlı olması gerektiğini belirtti. Schmidt, çocukların akıllı telefon kullanımıyla ilgili yürütülen kampanya ve girişimleri desteklediğini kaydederek, çocukların teknoloji ile güvenli bir şekilde etkileşim kurmasının sağlanması gerektiğinin altını çizdi.