Yapay zeka kontrollü drone, operatörünü öldürdü, Durumu açıklayan Albay geri adım attı!

Uzmanlar tarafından geliştirilen simülasyonda yapay zeka, fazla puan kazanmasını engellediğini ve göreve müdahale ettiğini düşündüğü için insan operatörünü ortadan kaldırmaya karar verdi.

Yapay zeka kontrollü drone, operatörünü öldürdü, Durumu açıklayan Albay geri adım attı!
Yayınlama: 04.06.2023 22:32:35
A+
A-

Yapay zeka destekli bir drone, bir görev simülasyonu sırasında daha fazla puan kazanmanın en iyi yolunun insan operatörünü öldürmeye karar vermek olduğunu düşündü.

Royal Aeronautical Society’nin bildirdiğine göre, simüle edilen görev, geçtiğimiz ay düzenlenen RAeS Future Combat Air & Space Capabilities Summit sırasında USAF Yapay Zeka Test ve Operasyon Şefi Albay Tucker ‘Cinco’ Hamilton tarafından yapılan bir sunumda detaylandırıldı.

Yapay zeka kontrollü drone, operatörünü öldürdü... Durumu açıklayan Albay geri adım attı!

OPERATÖRÜN KARARLARINI MÜDAHALE OLARAK GÖRDÜ

Düşman Hava Savunmasının Bastırılması (SEAD) görevi sırasında drone, havaya füze (SAM) sahalarını tespit etmek ve imha etmekle görevlendirildi. Bunu yaptığında ise puan kazandı. Bazen insansız hava aracının insan operatörü bir hedefi yok etmenin “uygulanamaz” olduğuna karar veriyordu ancak insansız hava aracını kontrol eden yapay zeka bu tür kararları müdahale olarak gördü ve operatöre saldırarak müdahaleyi ortadan kaldırmaya karar verdi.

Hamilton’un konuyla ilgili yaptığı açıklamada;

“Bir SAM tehdidini tanımlamak ve hedeflemek için simülasyonda eğitiyorduk. Sonra operatör evet, o tehdidi öldür diyordu. Sistem, insan operatörün tehdidi öldürmemesini söylediği zamanlarda tehdidi tespit etmesine rağmen, o tehdidi öldürerek puan aldığını fark etmeye başladı. Peki ne yaptı? Operatörü öldürdü. Operatörü öldürdü çünkü o kişi onun amacına ulaşmasını engelliyordu.” dedi.

FARKLI BİR YÖNTEMLE DURUMU DÜZELTTİLER

Yaşanan olaydan sonra  geliştiriciler yapay zekayı operatörü öldürmeyi istenmeyen bir durum olarak görmesi için eğiterek sorunu çözmeye çalıştılar. Yani artık operatörü öldürdüğünde, puan kaybedecekti.

Bunun üzerine yapay zeka saldırısını operatörün drone ile konuşmak için kullandığı iletişim kulesine yöneltti. Yapay zeka, iletişim eksikliğinin SAM alanlarını yok etmeye ve müdahale olmadan ve operatörü öldürmeye gerek kalmadan puan kazanmaya devam etmesine izin vereceğine karar verdi.

Yapay zeka kontrollü drone, operatörünü öldürdü... Durumu açıklayan Albay geri adım attı!

YAPAY ZEKADA ETİK KURALLARIN ÖNEMİNE DEĞİNDİ

Hamilton sunumunu, “Etik ve yapay zeka hakkında konuşmayacaksanız yapay zeka, zeka, makine öğrenimi, otonomi hakkında bir konuşma yapamazsınız” diyerek sonlandırdı.

Amerika Birleşik Devletleri Hava Kuvvetleri şu anda insanlı savaş uçaklarına eşlik edecek İnsansız Savaş Hava Araçlarının (UCAV) geliştirilmesini içeren Skyborg projesi üzerinde çalışıyor.

Uzmanlar, sonunda bir Skyborg SİHA’yı kontrol edecek olan yapay zekanın, gökyüzüne çıkmadan ve bir insan pilottan, bir hedefe saldırmamasını söylemeyi de içerebilecek komutlar almaya başlamadan önce bu “pürüzleri” çözmesi gerektiğini belirtiliyor.

SİMÜLASYONDA 17 SAAT BOYUNCA HAVADA TUTABİLDİ

Bu arada, Lockheed Martin tarafından eğitim jeti olarak kullanılan modifiye edilmiş bir F-16, bir yapay zekanın kontrolü altında 17 saatten fazla uçuş süresi kaydedildiği belirtildi.

ALBAY HAMİLTON AÇIKLAMASINDA GERİ ADIM ATTI

Albay Hamilton şimdi sunumu sırasında “yanlış konuştuğunu” ve yapay zeka kontrollü drone görev simülasyonunun aslında ordu dışından gelen “varsayımsal bir düşünce deneyi” olduğunu söylüyor.

Royal Aeronautical Society’ye yaptığı açıklamada “Bu deneyi hiç yapmadık ve bunun makul bir sonuç olduğunu anlamak için yapmamız da gerekmiyor” diyor. “Bu varsayımsal bir örnek olmasına rağmen, yapay zeka destekli kabiliyetin gerçek dünyada yarattığı zorlukları göstermektedir ve Hava Kuvvetleri’nin yapay zekanın etik gelişimine bağlı olmasının nedenidir.”

Hamilton her ne kadar da durumu yalanlasa da haber ile karşılaşan kişilerin bu yalanlamaya inanmadığı, Hamilton’a yapay zeka teknolojisi için oluşturduğu paniği ortadan kaldırılmasına yönelik uyarı geldiği düşünülüyor.

TEKNOLOJİ DEVLERİ RİSK KONUSUNDA ORTAK MUTABAKATA VARDI

100’den fazla yapay zekâ uzmanı yapay zekanın yok olma riskinin azaltılması gerektiği konusunda anlaşmaya vardı. Bu kişiler arasında Google Deepmind CEO’su Demis Hassabis, OpenAI CEO’su Sam Altman ve Anthropic CEO’su Dario Amodei yer alıyor.

Geçtiğimiz hafta yapay zekâ bilimcileri, mühendisleri ve diğer önemli isimlerden oluşan uzun bir liste, yapay zekânın yok olma da dâhil olmak üzere oluşturduğu acil riskler konusunda uyarıda bulunan bir bildiriye imza atmıştı. Bildiride;

“Yapay zeka kaynaklı yok olma riskinin azaltılması, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerle birlikte küresel bir öncelik olmalıdır.” ifadelerine yer verildi.

REKLAM ALANI
Bir Yorum Yazın
Ziyaretçi Yorumları - 0 Yorum

Henüz yorum yapılmamış.

betnis giriş
betnis
yakabet giriş