Connect with us

Berita

Upaya Google Cegah Kecerdasan Buatan Jadi Senjata Mematikan

Published

on

Setelah mundur dari keterlibatannya dalam Project Maven yang kontroversial, Google merilis panduan etis untuk pengembangan dan penggunaan teknologi kecerdasan buatannya (AI).

Dokumen yang berjudul “Artificial Intelligence at Google: our principles” ini menyebutkan bahwa Google tidak akan mengembangkan AI untuk digunakan pada senjata.

Berikut adalah poin-poin prinsip dari Google:

  1. Harus memiliki manfaat sosial: Kita akan memperhitungkan faktor sosial dan ekonomi yang luas, dan kita akan melanjutkan saat kita percaya bahwa manfaat keseluruhan akan secara substansial melebihi risiko dan kerugian.
  2. Hindari membuat atau memperkuat bias yang tidak adil: Berusaha untuk menghindari dampak yang tidak adil kepada orang-orang, terutama yang terkait dengan karakteristik sensitif seperti ras, etnis, jenis kelamin, kebangsaan, pendapatan, orientasi seksual, kemampuan, dan keyakinan politik atau agama.
  3. Dibangun dan diuji untuk keamanan: Mengembangkan dan menerapkan praktik keselamatan dan keamanan yang kuat untuk mencegah hasil yang tidak diinginkan yang mencipatakan risiko bahaya.
  4. Bertanggung jawab kepada orang-orang: Merancang sistem AI yang menyediakan kesempatan yang tepat untuk feedback, penjelasan relevan, dan daya tarik.
  5. Menggabungkan prinsip desain privasi: Memberi kesempatan untuk pemberitahuan dan persetujuan, mendorong arsitektur dengan perlindungan privasi, dan menyediakan transparansi dan kontrol terhadap penggunaan data.
  6. Menjunjung standar tinggi keunggulan ilmiah: Kami akan bekerja dengan berbagai stake holder untuk mempromosikan kepemimpinan yang bijaksana di area ini. Dan kita akan membagikan pengetahuan AI secara bertanggung jawab dengan menerbitkan materi edukasional, praktik terbaik, dan riset yang memungkinkan banyak orang untuk mengembangkan aplikasi AI yang berguna.
  7. Tersedia untuk penggunaan yang sesuai dengan prinsipi-prinsip ini: Membatasi penggunaan yang berpotensi berbahaya.

Meskipun prinsip baru ini melarang Google mengembangkan AI untuk senjata, mereka menyebutkan bahwa Google masih akan terus bekerja sama dengan pihak militer “di berbagai bidang lain”.

Juru bicara Google menyebutkan, jika peraturan ini dirilis lebih cepat, kemungkinan Google tidak akan terlibat dalam proyek drone Pentagon, yang menggunakan AI untuk menganalisa video rekaman pengawasan.

Memang, proyek dari Pentagon tidak menggunakan AI untuk menjadikan drone sebagai senjata. Namun, juru bicara Google menganggap, menggunakan AI untuk menganalisis video pengawasan juga terlalu berbahaya, mengimplikasikan bahwa ke depan, Google akan lebih berhati-hati dalam memilih proyek militer yang mereka kembangkan.

Advertisement

Selain menyatakan prinsip-prinsip yang akan dilakukan Google, Pichai juga menjelaskan apa yang tidak akan dilakukan oleh Google. Google tidak akan menggunakan AI-nya untuk bidang-bidang berikut:

  1. Teknologi yang menyebabkan atau berpotensi menyebabkan bahaya.
  2. Senjata atau teknologi lain yang tujuan atau implementasinya adalah untuk mengakibatkan atau secara langsung melukai orang-orang.
  3. Teknologi yang mengumpulkan atau menggunakan informasi untuk pengawasan yang melanggar norma internasional.
  4. Teknologi yang penggunaannya bertentangan dengan hukum internasional dan hak asasi manusia (HAM).

Perusahaan internet raksasa itu menyebutkan bahwa riset AI mereka akan fokus pada proyek yang menguntungkan masyarakat.

“Di Google, kami menggunakan AI untuk membuat produk menjadi lebih berguna — dari email yang bebas spam dan lebih mudah untuk dibuat, asistem digital yang bisa berbicara dengan natural dengan Anda, sampai foto yang menampilkan hal-hal yang Anda sukai,” tulis CEO Google Sundar Pichai dalam sebuah blog post.

“Kami sadar bahwa teknologi yang hebat ini menimbulkan pertanyaan besar tentang penggunaannya. Bagaimana AI dikembangkan dan digunakan akan memiliki dampak yang signifikan pada masyarakat dalam waktu bertahun-tahun di masa depan. Sebagai pemimpin di bidang AI, kami merasa bertanggung jawab untuk memastikan teknologi AI digunakan dengan benar.”

Sumber:

  • https://inet.detik.com/cyberlife/d-4060028/upaya-google-cegah-kecerdasan-buatan-jadi-senjata-mematikan
  • http://teknologi.metrotvnews.com/news-teknologi/ObzdmxgK-google-tak-mau-ciptakan-ai-untuk-senjata
  • https://www.theverge.com/2018/6/7/17439310/google-ai-ethics-principles-warfare-weapons-military-project-maven