Apa yang diharapkan dari kecerdasan buatan pada tahun 2023?. Kecerdasan buatan telah menjadi topik hangat di seluruh internet. Alat yang digunakan untuk mengumpulkan informasi umum yang disimpan manusia di internet sangat banyak digunakan di beberapa bidang kehidupan kita. Baru-baru ini pembuatan berbagai hal adalah yang paling umum di antara mereka, seperti pembuatan gambar, teks, video, dan banyak lagi. Tapi apa yang akan terjadi pada kecerdasan buatan pada tahun 2023? Banyak diskusi mulai dari penyalinan artis hingga inovasi teknologi berputar di sekitar topik ini, dan itu harus menjadi sesuatu dalam ide ini yang harus kita lihat tahun depan.

Apa yang diharapkan dari Kecerdasan Buatan pada tahun 2023?

lucas gomes avatar

A Kecerdasan buatan Ini telah menjadi topik hangat di seluruh internet. Alat yang digunakan untuk mengumpulkan informasi umum yang disimpan manusia di internet sangat banyak digunakan di beberapa bidang kehidupan kita. Baru-baru ini pembuatan berbagai hal adalah yang paling umum di antara mereka, seperti pembuatan gambar, teks, video, dan banyak lagi. Tapi apa yang akan terjadi pada Kecerdasan Buatan di 2023? Banyak diskusi mulai dari penyalinan artis hingga inovasi teknologi berputar di sekitar topik ini, dan itu harus menjadi sesuatu dalam ide ini yang harus kita lihat tahun depan.

Masalah membuat karya seni melalui AI

Dengan keberhasilan lensa, aplikasi selfie bertenaga AI dari Lab Prisma yang telah menjadi viral, Anda juga dapat mengharapkan banyak aplikasi serupa. Dan berharap mereka juga bisa tertipu untuk membuat gambar. NSFW — citra yang tidak pantas untuk pekerjaan, sering dikaitkan dengan konten ketelanjangan — dan secara tidak proporsional melakukan seksualisasi dan mengubah penampilan wanita, upaya untuk meminimalkan potensi penyalahgunaan alat tersebut, lebih dari yang sudah terjadi.

Maximilian Gahntz, seorang peneliti kebijakan senior di Mozilla Foundation, berharap bahwa mengintegrasikan AI yang membangun berbagai hal ke dalam teknologi konsumen akan memperkuat efek dari sistem "pertahanan" ini, baik dan buruk. A Difusi Stabil, misalnya, diberi makan miliaran gambar dari internet hingga “belajar” mengasosiasikan kata dan konsep tertentu dengan gambar tertentu. Template pembuatan teks telah dengan mudah dimanipulasi untuk mencegahnya menghasilkan konten yang mendukung visi menyinggung atau menghasilkan berita palsu.

Apa yang diharapkan dari kecerdasan buatan pada tahun 2023?
Maximilian Gahntz, rekan kebijakan senior di Mozilla Foundation. Gambar: Mercator Stiftung

Mike Cook, anggota kelompok penelitian terbuka Knives and Paintbrushes, setuju dengan Gahntz ketika dia mengatakan bahwa kecerdasan buatan yang kreatif akan terus membuktikan kekuatan besar — ​​dan sayangnya, bermasalah secara proporsional — untuk perubahan. Tapi menurutnya 2023 harus menjadi tahun ketika kecerdasan buatan yang menciptakan sesuatu "akhirnya sesuai dengan uang yang terlibat".

Tidaklah cukup untuk memotivasi komunitas ahli [untuk menciptakan teknologi baru] – agar teknologi menjadi bagian dari hidup kita dalam jangka panjang, itu harus menghasilkan banyak uang bagi seseorang atau berdampak signifikan pada kehidupan sehari-hari masyarakat masyarakat umum. Jadi saya perkirakan kita akan melihat dorongan serius untuk membuat AI generatif benar-benar mencapai salah satu dari dua hal tersebut, dengan kesuksesan yang beragam.

Mike Cook, anggota kelompok riset terbuka Knives and Paintbrushes tentang prediksinya untuk penggunaan kreasi kecerdasan buatan hingga tahun 2023

Seniman berusaha menuntut haknya

O DeviantArt merilis generator seni AI bawaan Difusi Stabil dan disesuaikan dengan art yang diterbitkan oleh pengguna platform. Generator seni mendapat ketidaksetujuan yang kuat dari mantan pengguna DeviantArt, yang mengkritik kurangnya transparansi platform dalam menggunakan karya seni yang mereka unggah untuk melatih sistem.

AI, teknologi, kecerdasan buatan, inovasi, tren 2023.
Kecerdasan Buatan pada tahun 2023 sudah dibayangkan. Gambar: Majalah Analytics India

Pembuat sistem paling populer — OpenAI e Stabilitas AI — katakanlah mereka telah mengambil langkah-langkah untuk membatasi jumlah konten berbahaya yang dihasilkan sistem mereka. Tapi dilihat dari banyak generasi di media sosial, jelas ada pekerjaan yang harus diselesaikan - dan banyak hal lainnya.

Maximilian Gahntz, membandingkan proses pembuatan seni melalui kecerdasan buatan dengan kontroversi yang sedang berlangsung terkait moderasi konten di media sosial. Peneliti menyatakan bahwa kumpulan data membutuhkan kurasi aktif untuk menyelesaikan masalah ini, termasuk komunitas yang cenderung hanya mengonsumsi sebagian kecil dari konten ini.

OpenAI, Stabilitas AI, dan masalah hukum

Stability AI, yang sebagian besar mendanai pengembangan Stable Diffusion, baru-baru ini tunduk pada tekanan publik dengan mengisyaratkan bahwa hal itu akan memungkinkan seniman untuk memilih keluar dari kumpulan data yang digunakan untuk melatih model tersebut. Difusi Stabil pada generasi berikutnya. Melalui situs web, pemegang hak atas karya seninya dapat meminta pembatalan sebelum dimulainya pelatihan yang akan diterapkan pada alat tersebut.

OpenAI, di sisi lain, tidak menawarkan mekanisme pengecualian ini, lebih memilih bermitra dengan organisasi seperti Shutterstock untuk melisensikan bagian galeri gambar Anda. Tetapi mengingat reaksi legal dan publisitas yang dihadapinya bersama Stabilitas AI, mungkin hanya masalah waktu sebelum mengikuti jejak saudara pasarnya.

Gambar logo dari Shutterstock dan OpenAI.
Gambar: PR Newswire

Dan dalam pengertian hukum, Anda juga dapat melihat beberapa gerakan. Di AS, Microsoft, GitHub dan - lihat dia di sini lagi - itu OpenAI dituntut dalam gugatan class action yang menuduh mereka melanggar undang-undang hak cipta dengan mengizinkan Copilot, layanan GitHub yang secara cerdas menyarankan baris kode, entah bagaimana — berbayar, gratis, atau dengan cara apa pun — memberikan bagian kode berlisensi tanpa memberikan kredit yang sesuai.

Mungkin untuk menghindari komplikasi hukum lebih lanjut, GitHub baru-baru ini menambahkan pengaturan untuk mencegah munculnya kode publik di saran Copilot, serta berencana untuk memperkenalkan fitur yang akan mereferensikan sumber saran kode. Tetapi ini adalah langkah-langkah yang belum diuji secara serius untuk ditayangkan.

Solusi sistem terbuka

Tahun 2022 terlihat segelintir perusahaan AI mendominasi panggung, terutama OpenAI dan Stabilitas AI. Namun semuanya dapat kembali ke open source pada tahun 2023, karena kemampuan untuk membangun sistem baru melampaui “Laboratorium AI yang kuat dan kaya fitur", seperti yang saya katakan Maximilian Gantz.

Potret artistik seorang wanita yang menggabungkan elemen AI, teknologi, dan alam, mempromosikan inovasi visual di era digital.
Gambar: Majalah Analytics India

Pendekatan komunitas dapat mengarah pada peningkatan pengawasan sistem saat sistem sedang dibangun dan digunakan. Gantz selanjutnya mengatakan bahwa jika modelnya terbuka dan jika kumpulan datanya juga terbuka, ini akan memungkinkan penelitian yang jauh lebih kritis yang telah menunjukkan banyak kekurangan dan kerugian yang terkait dengan penciptaan oleh kecerdasan buatan, dan ini seringkali sangat sulit untuk dilakukan. mengadakan.

Contoh upaya yang berfokus pada komunitas termasuk model bahasa besar dari Eleuther AI dan Ilmu Besar, sebuah karya yang didukung oleh startup kecerdasan buatan Hugging Face. Stabilitas AI mendanai berbagai komunitas seperti Harmoni e BukaBioML, berfokus pada menghasilkan musik, selain menjadi kumpulan eksperimen bioteknologi gratis.

Prediksi kecerdasan buatan 2023, inovasi AI, masa depan teknologi.
Gambar: GitHub

Uang dan keahlian masih diperlukan untuk melatih dan menjalankan model kecerdasan buatan yang canggih, tetapi komputasi terdesentralisasi dapat menantang server yang mengumpulkan informasi secara lebih tradisional karena upaya open source menjadi semakin matang.

BigScience telah mengambil langkah maju dalam memungkinkan pengembangan terdesentralisasi dengan peluncuran proyek open source Petals baru-baru ini. HAI Kelopak itu memungkinkan orang untuk menyumbangkan kekuatan komputasi mereka untuk menjalankan model bahasa kecerdasan buatan besar yang biasanya membutuhkan GPU atau server berkualitas lebih tinggi dari biasanya.

Model generatif modern secara komputasi mahal untuk dilatih dan dijalankan. Beberapa perkiraan kasar menyebutkan pengeluaran harian ChatGPT sekitar $3 juta. Untuk membuat ini layak secara komersial dan dapat diakses lebih luas, penting untuk mengatasi hal ini.

Chandra Bhagavatula, Rekan Senior di Allen Institute for AI on Investing in the Open Way of Artificial Intelligence
Teknologi, kecerdasan buatan, acara, inovasi, showmetech.
Dari kiri ke kanan: Ketua Bersama Program Konferensi Vincent Conitzer, Ronan Le Bras, Yejin Choi, Chandra Bhagavatula, Keisuke Sakaguchi dan Ketua Bersama Program Konferensi Fei Sha. Gambar: Berita Sekolah Allen

Chandra Bhagavatula menunjukkan, bagaimanapun, bahwa laboratorium besar akan terus memiliki keunggulan kompetitif, selama metode dan datanya tetap dimiliki. Dalam contoh terbaru, OpenAI merilis Titik, model yang dapat menghasilkan objek 3D dari perintah teks. Namun, meskipun OpenAI memiliki model open-source, itu belum mengungkapkan sumber data pelatihan Point-E atau merilis data ini.

Saya pikir upaya open source dan upaya desentralisasi bermanfaat dan bermanfaat bagi peneliti, praktisi, dan pengguna yang lebih luas. Namun, meskipun open source, model terbaik masih tidak dapat diakses oleh sejumlah besar peneliti dan praktisi karena keterbatasan sumber dayanya.

Chandra mengikuti alasannya

Langkah pertama menuju beberapa regulasi

Peraturan seperti Undang-Undang Kecerdasan Buatan Uni Eropa dapat mengubah cara perusahaan mengembangkan dan menggunakan sistem AI di masa mendatang. Begitu juga upaya lokal lainnya, seperti undang-undang perekrutan AI Kota New York, yang membutuhkan teknologi berbasis algoritme dan AI untuk merekrut, mempekerjakan, atau mempromosikan untuk diaudit sebelum benar-benar digunakan.

Chandra Bhagavatula melihat peraturan seperti itu diperlukan, terutama mengingat kelemahan teknis yang semakin jelas dari pencipta teknologi kecerdasan buatan, seperti kecenderungannya untuk merilis informasi yang berpotensi menyesatkan.

Apa yang diharapkan dari kecerdasan buatan pada tahun 2023?
Undang-Undang Kecerdasan Buatan Uni Eropa. Gambar: TruEra

Hal ini membuat AI generatif sulit diterapkan di banyak area di mana kesalahan bisa sangat mahal – misalnya, perawatan kesehatan. Selain itu, kemudahan menghasilkan misinformasi menciptakan tantangan terkait misinformasi dan disinformasi. Namun sistem AI sudah membuat keputusan yang sarat dengan implikasi moral dan etika.

Chandra Bhagavatula, seorang peneliti senior di Allen Institute for AI sedang mencari solusi untuk kecerdasan buatan generasi berikutnya

Namun, tahun depan hanya akan membawa ancaman regulasi. Dalam pengertian itu, kita dapat mengharapkan lebih banyak diskusi tentang aturan dan proses peradilan sebelum seseorang didenda atau dituntut - dan memang demikian. Tetapi perusahaan masih dapat bersaing untuk mendapatkan posisi dalam kategori yang paling menguntungkan dari undang-undang berikutnya, seperti kategori risiko Hukum Kecerdasan Buatan.

Aturan tersebut, seperti yang tertulis saat ini, membagi sistem AI menjadi salah satu dari empat kategori risiko, masing-masing dengan persyaratan dan tingkat yang berbeda. Sistem dalam kategori risiko tertinggi, Kecerdasan Buatan dari “berisiko tinggi” — misalnya, algoritme penilaian kredit, aplikasi bedah robot, dan lainnya dengan data sensitif — harus memenuhi standar hukum, etika, dan teknis tertentu sebelum diizinkan memasuki pasar Eropa.

Praktik AI yang dilarang dan risiko yang dapat diterima dalam inovasi teknologi.
Piramida menampilkan risiko yang tidak dapat diterima, risiko tinggi, kekayaan terbatas, dan risiko rendah atau minimal. Gambar: Epthinktank

Kategori risiko terendah, Kecerdasan Buatan dari “risiko minimal atau tidak ada risiko” — misalnya, filter spam, video game yang mendukung AI, dan lainnya yang tidak berisi data sensitif semacam itu — hanya memberlakukan kewajiban transparansi, seperti membuat pengguna sadar bahwa mereka berinteraksi dengan sistem Kecerdasan Buatan.

The Keyes, seorang kandidat PhD di University of Washington, menyatakan keprihatinan bahwa perusahaan mencari tingkat risiko terendah untuk meminimalkan tanggung jawab dan visibilitas mereka sendiri kepada regulator. “Terlepas dari kekhawatiran itu, masalah regulasi AI ini benar-benar merupakan hal paling positif yang saya lihat di atas meja. Saya tidak melihat banyak di luar Kongres", ia mengatakan Os.

Dan bagaimana dengan ekonomi?

Maximilian Gahntz berpendapat bahwa bahkan jika sistem Kecerdasan Buatan bekerja cukup baik bagi kebanyakan orang, itu sangat mendalam berprasangka bagi yang lain, masih banyak pekerjaan berat yang harus dilakukan sebelum perusahaan benar-benar membuatnya tersedia secara luas.

Ilustrasi AI dengan elemen teknologi, otak, dan inovasi.
Gambar: Atlantik

Tidak jelas apakah perusahaan akan terbujuk oleh argumen ini tahun depan - dan siapa tahu untuk tahun-tahun mendatang - terutama karena investor tampaknya ingin menaruh uang mereka di luar AI generatif yang menjanjikan.

Di tengah kontroversi Stable Diffusion, Stability AI dinaikkan US$ 101 juta dalam penilaian lebih dari $1 miliar dari sponsor, termasuk beberapa nama terkenal di lapangan seperti mantel e Partners Venture Lightspeed. Juga dilaporkan bahwa OpenAI dihargai $20 miliar dengan mengadakan negosiasi lanjutan untuk mengumpulkan lebih banyak dana dari Microsoft — mengingat bahwa pada tahun 2019 Microsoft menginvestasikan $1 miliar dalam OpenAI pada tahun 2019.

Dan Anda, menurut Anda bagaimana kecerdasan buatan akan berperilaku tahun depan? Beri tahu kami di komentar!

Lihat juga:

artis menggunakan AI untuk berbicara dengan anak batin Anda.

Sumber: TechCrunch.


Temukan lebih lanjut tentang Showmetech

Daftar untuk menerima berita terbaru kami melalui email.

Pos terkait