berita

Amerika Serikat meluncurkan "Manhattan Project 2.0", akankah AI memasuki momen Oppenheimernya? 6 miliar telah dilemparkan ke drone, 800 di antaranya sudah melakukannya

2024-07-15

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina


Laporan Kebijaksanaan Baru

Editor: Aeneas mengantuk sekali

[Pengantar Kebijaksanaan Baru] Apakah Proyek Manhattan 2.0 akan hadir? Saat ini, militer AS memiliki lebih dari 800 proyek AI aktif dan telah mengajukan pendanaan sebesar $1,8 miliar untuk AI dalam 24 tahun saja. Selama lima tahun ke depan, Amerika Serikat juga akan mengalokasikan $6 miliar untuk penelitian dan pengembangan jet tempur kolaboratif tak berawak. Kini, AI sepertinya sudah memasuki momen Oppenheimer.

Kecerdasan buatan telah memasuki momen Oppenheimer.

Kini, senjata AI terus digunakan untuk tujuan militer, dan industri terkait pun berkembang pesat.

Perlombaan senjata AI bernilai miliaran dolar telah menarik perhatian para raksasa Silicon Valley dan negara-negara di seluruh dunia.

Meningkatnya konflik di seluruh dunia merupakan akselerator dan ajang uji coba perang AI. Militer di berbagai negara mempunyai minat yang besar terhadap AI, dan saat ini pengawasan di bidang ini masih kurang.


Militer AS telah memiliki lebih dari 800 proyek AI yang aktif. Pada tahun 2024 saja, militer AS telah mengajukan pendanaan senilai $1,8 miliar dalam anggaran AI.

Penerapan AI di kalangan militer dan pemerintahan di seluruh dunia kemungkinan besar akan mengubah masyarakat, mengubah teknologi, dan mengubah peperangan secara mendasar.

Iklan drone menjadi kenyataan

Sekelompok tentara mendapat serangan roket selama pertempuran perkotaan jarak dekat.

Salah satu dari mereka menelepon melalui radio, dan tak lama kemudian armada drone kecil otonom yang dilengkapi bahan peledak terbang masuk.

Drone bunuh diri ini terbang ke gedung-gedung dan mulai memindai musuh. Begitu mereka menemukan target, mereka akan meledak sesuai perintah.

Gambar di atas berasal dari iklan perusahaan senjata Elbit yang mempromosikan bagaimana drone AI dapat "memaksimalkan tingkat kematian dan ritme pertempuran".


Kini, teknologi yang dikembangkan Elbit sudah semakin merambah ke dunia nyata.

“Seiring waktu, kita mungkin melihat manusia lebih banyak menilai mesin,” kata Paul Scharre, wakil presiden eksekutif dan direktur penelitian di lembaga pemikir Center for a New American Security.

“Jika kita melihat ke belakang dalam 15 atau 20 tahun, kita akan menyadari bahwa kita telah melewati ambang batas yang sangat penting.”


Pada tahun 2023, drone yang terintegrasi dengan AI mendeteksi alat peledak

Amerika Serikat menghabiskan $1 miliar untuk "Proyek Replikator"

Meskipun pengembangan AI hanya mengalami lonjakan investasi dalam beberapa tahun terakhir, pengembangan sistem senjata otonom dalam peperangan sudah ada sejak beberapa dekade yang lalu.

Tentu saja, perkembangan ini jarang muncul dalam diskusi publik, namun menjadi bahan kajian oleh sejumlah kecil cendekiawan dan ahli strategi militer.

Namun kini, perhatian masyarakat terhadap AI semakin meningkat. Apakah senjata benar-benar “otonom” juga menjadi topik perdebatan hangat.

Menurut para ahli dan peneliti, kita dapat memahami “otonomi” sebagai sebuah spektrum dan bukan sebuah konsep biner sederhana.

Namun mereka umumnya sepakat bahwa mesin kini mampu membuat lebih banyak keputusan tanpa campur tangan manusia dibandingkan sebelumnya.


Dan dana mengalir ke perusahaan-perusahaan dan lembaga-lembaga pemerintah, menjanjikan bahwa AI dapat membuat perang menjadi lebih cerdas, lebih murah, dan lebih cepat.

Pentagon berencana menghabiskan $1 miliar untuk “Program Replikator” pada tahun 2025. Tujuan dari program ini adalah untuk mengembangkan sejumlah besar drone tempur tak berawak dan menggunakan AI untuk memburu ancaman.

Selama lima tahun ke depan, Angkatan Udara A.S. berencana mengalokasikan sekitar $6 miliar untuk penelitian dan pengembangan jet tempur kolaboratif tak berawak guna membangun armada 1.000 jet tempur AI yang dapat terbang secara mandiri.

Dalam beberapa tahun terakhir, Departemen Pertahanan AS juga telah mengumpulkan ratusan juta dolar untuk mendanai program rahasia kecerdasan buatan yang disebut Project Maven, yang berfokus pada teknologi seperti pengenalan dan pengawasan target otomatis.


Tentara Inggris menggunakan AI selama latihan

Perusahaan teknologi menandatangani kontrak besar

Pada saat yang sama, meningkatnya permintaan akan AI dan otonomi di kalangan militer telah membantu perusahaan teknologi dan pedagang senjata mendapatkan pesanan dalam jumlah besar.

Anduril, sebuah perusahaan yang mengembangkan drone serang otonom, pesawat tempur tak berawak, dan kendaraan bawah air, sedang mengumpulkan modal ventura baru dengan perkiraan penilaian sebesar $12,5 miliar.


Pendiri Anduril, Palmer Luckey, adalah seorang miliarder berusia 31 tahun yang tahun ini menandatangani kontrak dengan Pentagon untuk membangun program jet tempur tak berawak.

Miliarder Silicon Valley Peter Thiel juga mendirikan Palantir, sebuah perusahaan teknologi dan pengawasan. Mereka telah berpartisipasi dalam proyek-proyek AI seperti “kendaraan pertama yang ditentukan oleh kecerdasan buatan” Angkatan Darat A.S.


Pada bulan Mei, Pentagon mengumumkan telah memberikan Palantir kontrak senilai $480 juta untuk teknologi AI yang membantu mengidentifikasi target musuh.

Saat ini teknologi Palantir telah digunakan dalam beberapa operasi militer.


Palantir Terlibat dalam "Kendaraan Buatan AI Pertama" Angkatan Darat AS

Anduril dan Palantir, masing-masing dinamai Pedang Suci dan Batu Bertuah dalam "Lord of the Rings", hanyalah sebagian kecil dari demam emas perang AI internasional.


Helsing telah mengumpulkan hampir $500 juta pendanaan untuk perangkat lunak pertahanan AI dan bernilai $5,4 miliar pada bulan ini.

Sementara itu, Elbit Systems mengungkapkan dalam pengajuan keuangan pada bulan Maret bahwa mereka telah menandatangani kontrak amunisi senilai $760 juta pada tahun 2023. Dan, pada tahun lalu, pendapatannya mencapai $6 miliar.


Helsing mengumpulkan hampir $500 juta untuk perangkat lunak pertahanan AI, senilai $5,4 miliar bulan ini

Perusahaan teknologi besar juga lebih menerima industri pertahanan dan penggunaan AI dibandingkan tahun-tahun sebelumnya.

Pada tahun 2018, karyawan Google memprotes keterlibatan perusahaan tersebut dalam Proyek Maven militer, dengan alasan bahwa hal tersebut melanggar tanggung jawab etika dan moral. Saat itu, di bawah tekanan, Google memutuskan kerjasamanya dengan proyek tersebut.

Namun, Google telah mencapai kesepakatan senilai US$1,2 miliar dengan pemerintah suatu negara untuk menyediakan layanan komputasi awan dan kemampuan AI.

Tahun ini, Google memecat puluhan karyawannya karena beberapa karyawannya memprotes kontrak militer. CEO Pichai dengan blak-blakan mengatakan kepada karyawannya: "Ini adalah bisnis."


Protes karyawan serupa terjadi di Amazon pada tahun 2022, dan sekali lagi, perusahaan tidak mengubah kebijakannya.

kotak hitam ganda

Para peneliti memperingatkan bahwa ketika sejumlah besar uang mengalir ke sektor teknologi pertahanan, banyak perusahaan dan teknologi beroperasi dengan transparansi dan akuntabilitas yang minim.

Jika suatu produk gagal secara tidak terduga, akibatnya bisa berakibat fatal, tetapi para pedagang senjata ini biasanya tidak bertanggung jawab atas hal ini.

Selain itu, bias kerahasiaan yang dimiliki aparat keamanan nasional AS juga berarti bahwa perusahaan dan pemerintah tidak berkewajiban mengungkapkan rincian cara kerja sistem ini.

Ketika pemerintah mengambil rahasia, teknologi AI yang dipatenkan dan menempatkannya di dunia keamanan nasional yang tersembunyi, hal ini menciptakan apa yang oleh profesor hukum Universitas Virginia Ashley Deeks disebut sebagai “kotak hitam ganda.”

Dalam hal ini, sulit bagi masyarakat untuk mengetahui apakah sistem tersebut beroperasi dengan benar atau etis. Dan, secara umum, hal ini menyisakan banyak ruang untuk kesalahan.

“Saya telah melihat banyak hype seputar AI di dunia bisnis, dan kata 'AI' disalahgunakan di mana-mana,” kata Scharre dari lembaga pemikir Center for American Security itu mungkin tidak serumit yang diiklankan.


Aktivis melakukan protes di depan Gerbang Brandenburg di Berlin, Jerman, menuntut "hentikan robot pembunuh"

orang-orang di sirkuit

Meskipun perusahaan dan militer nasional enggan mengungkapkan rincian operasional spesifik sistem mereka, mereka terlibat dalam banyak perdebatan mengenai tanggung jawab etis dan regulasi sistem AI.

Misalnya, para diplomat dan pedagang senjata pada umumnya percaya bahwa harus selalu ada “partisipasi manusia” dalam proses pengambilan keputusan, dibandingkan sepenuhnya dikendalikan oleh mesin.

Namun, terdapat sedikit konsensus mengenai bagaimana menerapkan pengawasan manusia.

“Setiap orang dapat menyetujui konsep tersebut, tetapi pada saat yang sama setiap orang memiliki gagasan berbeda tentang apa artinya dalam praktiknya,” kata Rebecca Crootof, seorang profesor hukum dan pakar perang otonom di Universitas Richmond dan peneliti tamu pertama DARPA.

“Dalam hal memandu keputusan desain teknis, konsep ini tidak begitu berguna.”


Para pengunjuk rasa berkumpul di luar pabrik Elbit Systems di Leicester, Inggris

Selain itu, kompleksitas psikologi manusia dan akuntabilitas membuat diskusi tingkat tinggi tentang “orang-orang yang terlibat” menjadi semakin menyusahkan.

Salah satu contoh yang sering dikutip oleh para peneliti adalah mobil self-driving, di mana manusia harus mengambil kembali kendali atas kendaraan bila diperlukan untuk mencapai “partisipasi manusia”.

Namun jika mobil self-driving melakukan kesalahan, atau menyebabkan manusia mengambil keputusan yang salah, apakah adil jika menyalahkan pengemudinya?

Untuk lebih spesifiknya, jika mobil self-driving menyerahkan kendali kepada manusia pada beberapa detik pertama setelah terjadi kecelakaan, siapa yang bertanggung jawab?

Scharre dari lembaga pemikir Center for American Safety menunjukkan hal yang menarik: Kita kadang-kadang menempatkan manusia di kokpit sehingga kita dapat menemukan seseorang untuk mengambil tanggung jawab ketika terjadi kesalahan. Inilah yang disebut "zona penyangga moral".

Ada perbedaan pendapat mengenai cara melakukan pengawasan

Pada konferensi di Wina pada akhir April tahun ini, organisasi internasional dan diplomat dari 143 negara berkumpul untuk membahas masalah peraturan penggunaan kecerdasan buatan dan senjata otonom dalam peperangan.

Selama bertahun-tahun, Dewan Keamanan PBB gagal mencapai perjanjian komprehensif mengenai masalah ini.

Dibandingkan dengan larangan total terhadap senjata otonom, seruan Menteri Luar Negeri Austria Alexander Schallenberg jauh lebih ringan – “Setidaknya kita harus membuat keputusan yang paling luas dan penting – siapa yang hidup dan siapa yang mati masih di tangan manusia, bukan mesin. " .


Palang Merah Internasional dan Stop Killer Robots telah menyerukan pelarangan jenis sistem senjata otonom tertentu selama lebih dari sepuluh tahun.

Catherine Connolly, manajer Stop Killer Robots, mengatakan: "Kami melihat banyak uang yang diinvestasikan dalam teknologi seperti senjata otonom dan sistem penargetan AI, yang sangat mengkhawatirkan."

Saat ini, situasinya semakin mendesak.

Para pendukung pengendalian senjata juga mengakui bahwa waktu hampir habis untuk memperjuangkan peraturan.

Mary Wareham, wakil direktur departemen krisis, konflik dan persenjataan organisasi tersebut, mengatakan, "Kami pernah menyerukan larangan preventif terhadap sistem persenjataan yang sepenuhnya otonom, dan sekarang kami tidak lagi menggunakan kata 'pencegahan' karena kami sangat jauh dari otonomi. senjata. Sangat dekat."

Seruan untuk memperkuat pengawasan telah ditentang oleh Amerika Serikat dan negara-negara lain serta para pedagang senjata.

Pendiri Anduril, Luckey, secara samar-samar berjanji untuk mempertahankan "keterlibatan manusia" dalam teknologi perusahaannya, namun telah menentang peraturan dan larangan senjata otonom.

CEO Palantir Alex Karp telah berkali-kali menyebutkan bahwa kita telah mencapai momen Oppenheimer.


Drone yang terintegrasi dengan AI sedang membersihkan ranjau

Para ahli mengatakan bahwa kurangnya pengawasan bukan hanya sebuah fenomena unik pada senjata otonom, namun merupakan masalah umum yang dihadapi oleh sistem hukum internasional.

Namun banyak yang khawatir bahwa ketika teknologi ini dikembangkan dan diintegrasikan ke dalam militer, teknologi tersebut akan bertahan dan menjadi lebih sulit untuk diatur.

“Ketika sebuah senjata digunakan oleh militer, akan lebih sulit untuk melepaskannya karena mereka sudah bergantung pada senjata tersebut,” kata Scharre dari lembaga think tank Center for American Security. “Ini bukan lagi sekadar investasi finansial.”

Jika senjata otonom dan AI berkembang seperti teknologi militer lainnya, penggunaannya kemungkinan besar juga akan meluas ke lembaga penegak hukum dalam negeri dan patroli perbatasan, sehingga semakin memperkuat teknologi tersebut.

“Sering kali, teknologi yang digunakan dalam perang berakhir di negara asal,” kata Connolly.

Referensi:

https://www.theguardian.com/technology/article/2024/jul/14/ais-oppenheimer-moment-autonomous-weapons-enter-the-battlefield