enflasyonemeklilikötvdövizakpchpmhpiyi partizafer partisiIspartaHaberYerel HaberYerel SeçimIsparta HaberIsparta HaberlerGündemGazetelerAstrolojiBurçlarIsparta Hava Durumu
DOLAR
32,2417
EURO
34,8347
ALTIN
2.393,79
BIST
10.247,75
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
Isparta
Az Bulutlu
20°C
Isparta
20°C
Az Bulutlu
Perşembe Az Bulutlu
22°C
Cuma Hafif Yağmurlu
17°C
Cumartesi Az Bulutlu
16°C
Pazar Az Bulutlu
18°C

OpenAI kurallarını değiştirdi: Yapay zeka orduda kullanılabilir

OpenAI kurallarını değiştirdi: Yapay zeka orduda kullanılabilir
23.01.2024 10:34
8
A+
A-

Uzmanlar daha önce, herhangi bir insan müdahalesi olmadan öldürebilen “slaughterbots” (katliam ropotu) yüzünden yapay zekanın dünya çapındaki çatışmaları tırmandırabileceği yönündeki korkularını dile getirmişti.

Geçen hafta OpenAI  şirketin “silah geliştirme, askeriye ve savaş dahil olmak üzere yüksek fiziksel zarar riski taşıyan faaliyetler” için modellerin kullanılmasına izin vermeyeceğini belirten yasağı sessizce kaldırdı.  

OpenAI Sözcüsü “Politikamız, araçlarımızın insanlara zarar vermek, silah geliştirmek, gözlem yapmak, başkalarına zarar vermek veya mülkleri yok etmek için kullanılmasına izin vermiyor. Ancak misyonumuzla uyumlu ulusal güvenlik kullanım durumları var.” dedi.

Yararlı kullanım durumlarında önceki politika kapsamında “askeri” kullanıma izin verilip verilmeyeceğinin açık olmadığını söyleyen OpenAI çalışanı, politikanın güncelleme amacının, netlik ve bu tartışmaları yapabilme olanağını sağlamak olduğunu belirtti.

Geçen yıl aralarında ABD ve Çin’in de bulunduğu 60 ülke, yapay zekanın (AI) askeri nedenlerle kullanımını sınırlamak için “harekete geçme çağrısı” imzalamıştı.

Yapay zekanın “Büyük Teknoloji” kuruluşları tarafından askeri amaçlarla kullanılması daha önce tartışmalara neden olmuştu.

2018’de binlerce Google çalışanı, şirketin yapay zeka araçlarının drone gözetim görüntülerini analiz etmek için kullanılmasını öngören Pentagon sözleşmesini (Proje Maven) protesto etmişti.

Microsoft çalışanları da askerlere artırılmış gerçeklik başlıkları sağlanmasına yönelik 480 milyon dolarlık bir sözleşmeyi protesto etmişti.

2017’de Elon Musk’un da aralarında bulunduğu teknoloji liderleri BM’ye, kimyasal silahları ve insanları kör etmek için üretilen lazer silahların yasaklanması çağrısında bulundu.

Otonom silahların “savaşta üçüncü bir devrim”e yol açabileceği uyarısında bulundu: ilk ikisi barut ve nükleer silahlardı.

Uzmanlar, tamamen otonom silahlarla dolu “Pandora’nın kutusu” bir kez açılırsa onu tekrar kapatmanın imkansız olabileceği konusunda uyarıyor.

YAPAY ZEKA, HEDEFLERİ SEÇİP ÖLDÜRMEK İÇİN YAPILMIŞ İHA’LARI KONTROL EDEBİLİR Mİ?

Eski MI6 ajanı ve yazar Carlton King, yakın gelecekte yapay zekanın pilotsuz saldırı uçaklarını kontrol edecebileceğini söylüyor.

Saldırı uçaklarına pilotluk etmek için makine kullanmayı öğrenmenin avantajları askeri liderler için oldukça önemli olacaktır.

King “Bağımsız bir robota makine öğrenimi vermeye başladığınız anda, onun kontrolünü kaybetmeye başlarsınız. Bir süre sonra bırakın her şeyi  robot yapsın demek cazip gelebilir.” dedi.

İnsansız hava araçlarının ABD ve İngiltere’de pilotlar tarafından uçurulduğunu, ancak askeri liderlerin insanı denklemden çıkarma eğiliminde olabileceğini belirten King, “Halihazırda olmasa bile, tepkileri yeterince hızlı olmayacağı için yerdeki pilotu ortadan kaldırmaya ve bunu tepkileri çok daha hızlı olan, ateş etme ya da etmeme kararı verebilen bir yapay zekanın ellerine bırakmaya yönelik bir hareket olacağı açıktır.” diye konuştu.

NTV’yi sosyal medyadan takip edin

Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.

sanalbasin.com üyesidir