Ilmuwan Komputer Terkemuka Memperdebatkan Langkah Selanjutnya untuk AI pada Tahun 2021

Ilmuwan komputer terkemuka memperdebatkan langkah selanjutnya untuk AI pada tahun 2021
banner 468x60

DARMEDIATAMA.COM – Tahun 2010-an merupakan tahun yang sangat besar untuk kecerdasan buatan, berkat kemajuan dalam pembelajaran yang mendalam, cabang AI yang menjadi layak karena kapasitas yang tumbuh untuk mengumpulkan, menyimpan, dan memproses data dalam jumlah besar. Saat ini, pembelajaran mendalam tidak hanya menjadi topik penelitian ilmiah tetapi juga merupakan komponen kunci dari banyak aplikasi sehari-hari.

Tetapi penelitian dan penerapan selama satu dekade telah memperjelas bahwa dalam keadaannya saat ini, pembelajaran mendalam bukanlah solusi akhir untuk memecahkan tantangan yang selalu sulit dipahami dalam menciptakan AI tingkat manusia.

Apa yang kita butuhkan untuk mendorong AI ke level berikutnya? Lebih banyak data dan jaringan neural yang lebih besar? Algoritme pembelajaran mendalam baru? Pendekatan selain pembelajaran mendalam?

Ini adalah topik yang telah hangat diperdebatkan di komunitas AI dan menjadi fokus diskusi online di Montreal.AI yang diadakan minggu lalu. Bertajuk ” Debat AI 2: Menggerakkan AI ke Depan: Pendekatan Interdisipliner “, debat ini dihadiri oleh para ilmuwan dari berbagai latar belakang dan disiplin ilmu.

Kecerdasan Buatan Hibrida

[adrotate banner=”7″]

Ilmuwan kognitif Gary Marcus, yang ikut serta dalam debat tersebut, menegaskan kembali beberapa kekurangan utama dari deep learning , termasuk persyaratan data yang berlebihan, kapasitas yang rendah untuk mentransfer pengetahuan ke domain lain, opasitas, dan kurangnya representasi penalaran dan pengetahuan.

Marcus, yang merupakan kritikus vokal pendekatan deep learning-only , menerbitkan sebuah makalah pada awal 2020 di mana ia menyarankan pendekatan hybrid yang menggabungkan algoritma pembelajaran dengan perangkat lunak berbasis aturan.

Pembicara lain juga menunjuk kecerdasan buatan hibrida sebagai solusi yang mungkin untuk tantangan yang dihadapi pembelajaran mendalam.

“Salah satu pertanyaan kuncinya adalah mengidentifikasi blok bangunan AI dan bagaimana membuat AI lebih dapat dipercaya, dapat dijelaskan, dan dapat ditafsirkan,” kata ilmuwan komputer Luis Lamb.

Lamb, salah satu penulis buku Neural-symbolic Cognitive Reasoning , mengusulkan pendekatan dasar untuk neural-symbolic AI yang didasarkan pada formalisasi logis dan pembelajaran mesin.

“Kami menggunakan representasi logika dan pengetahuan untuk mewakili proses penalaran yang terintegrasi dengan sistem pembelajaran mesin sehingga kami juga dapat secara efektif mereformasi pembelajaran saraf menggunakan mesin pembelajaran yang dalam,” kata Lamb.

Inspirasi dari Evolusi

[adrotate banner=”6″]

Fei-fei Li, seorang profesor ilmu komputer di Universitas Stanford dan mantan kepala ilmuwan AI di Google Cloud, menggarisbawahi bahwa dalam sejarah evolusi, penglihatan telah menjadi salah satu katalis utama bagi munculnya kecerdasan pada makhluk hidup. Demikian pula, pekerjaan pada klasifikasi gambar dan visi komputer telah membantu memicu revolusi pembelajaran mendalam selama dekade terakhir. Li adalah pencipta ImageNet , kumpulan data jutaan gambar berlabel yang digunakan untuk melatih dan mengevaluasi sistem visi komputer.

Sebagai ilmuwan, kami bertanya pada diri sendiri, apa bintang utara berikutnya? Kata Li. “Ada lebih dari satu. Saya sangat terinspirasi oleh evolusi dan perkembangan. “

Li menunjukkan bahwa kecerdasan pada manusia dan hewan muncul dari persepsi dan interaksi aktif dengan dunia, sebuah properti yang sangat kurang dalam sistem AI saat ini, yang mengandalkan data yang dikurasi dan diberi label oleh manusia.

“Ada lingkaran kritis yang fundamental antara persepsi dan aktuasi yang mendorong pembelajaran, pemahaman, perencanaan, dan penalaran. Dan lingkaran ini dapat lebih terwujud ketika agen AI kami dapat diwujudkan, dapat dial antara tindakan eksploratif dan eksploitatif, multi-modal, multi-tugas, dapat digeneralisasi, dan seringkali sosial, ”katanya.

Di lab Stanford-nya, Li saat ini sedang mengembangkan agen interaktif yang menggunakan persepsi dan aktuasi untuk memahami dunia.

Peneliti OpenAI Ken Stanley juga membahas pelajaran yang didapat dari evolusi. “Ada sifat-sifat evolusi di alam yang sangat kuat dan belum dijelaskan secara algoritmik karena kita tidak dapat menciptakan fenomena seperti apa yang telah diciptakan di alam,” kata Stanley. “Itu adalah properti yang harus terus kita kejar dan pahami, dan itu adalah properti tidak hanya dalam evolusi tetapi juga dalam diri kita sendiri.”

Pembelajaran Penguatan

[adrotate banner=”7″]

Ilmuwan komputer Richard Sutton menunjukkan bahwa, sebagian besar, pekerjaan pada AI tidak memiliki “teori komputasi”, istilah yang diciptakan oleh ahli saraf David Marr, yang terkenal karena karyanya tentang penglihatan. Teori komputasi mendefinisikan tujuan apa yang dicari oleh sistem pemrosesan informasi dan mengapa ia mencari tujuan itu.

“Dalam ilmu saraf, kita kehilangan pemahaman tingkat tinggi tentang tujuan dan tujuan pikiran secara keseluruhan. Hal ini juga berlaku dalam kecerdasan buatan – mungkin lebih mengejutkan dalam AI. Ada sangat sedikit teori komputasi dalam pengertian Marr dalam AI, ”kata Sutton. Sutton menambahkan bahwa buku teks sering mendefinisikan AI hanya sebagai “membuat mesin melakukan apa yang dilakukan orang” dan percakapan terkini dalam AI, termasuk perdebatan antara jaringan saraf dan sistem simbolik, adalah “tentang bagaimana Anda mencapai sesuatu, seolah-olah kita sudah memahami apa itu. yang kami coba lakukan. “

“Pembelajaran penguatan adalah teori komputasi kecerdasan pertama,” kata Sutton, mengacu pada cabang AI di mana agen diberi aturan dasar lingkungan dan dibiarkan menemukan cara untuk memaksimalkan hadiah mereka. “Pembelajaran penguatan secara eksplisit tentang tujuan, tentang apa dan mengapa . Dalam pembelajaran penguatan, tujuannya adalah untuk memaksimalkan sinyal hadiah yang sewenang-wenang. Untuk tujuan ini, agen harus menghitung kebijakan, fungsi nilai, dan model generatif, ”kata Sutton.

Dia menambahkan bahwa bidang tersebut perlu mengembangkan lebih lanjut teori komputasi kecerdasan yang disepakati dan mengatakan bahwa pembelajaran penguatan saat ini adalah kandidat yang menonjol, meskipun dia mengakui bahwa kandidat lain mungkin perlu ditelusuri.

Sutton adalah pionir pembelajaran penguatan dan penulis buku teks mani tentang topik tersebut. DeepMind, laboratorium AI tempat dia bekerja, sangat berinvestasi dalam “pembelajaran penguatan mendalam”, sebuah variasi dari teknik yang mengintegrasikan jaringan saraf ke dalam teknik pembelajaran penguatan dasar. Dalam beberapa tahun terakhir, DeepMind telah menggunakan pembelajaran penguatan mendalam untuk menguasai game seperti Go, catur, dan StarCraft 2.

Meskipun pembelajaran penguatan memiliki kemiripan yang mencolok dengan mekanisme pembelajaran dalam otak manusia dan hewan, pembelajaran penguatan juga mengalami tantangan yang sama yang mengganggu pembelajaran mendalam. Model pembelajaran penguatan memerlukan pelatihan ekstensif untuk mempelajari hal-hal yang paling sederhana dan dibatasi secara kaku pada domain sempit tempat mereka dilatih. Untuk saat ini, mengembangkan model pembelajaran penguatan mendalam membutuhkan sumber daya komputasi yang sangat mahal, yang membuat penelitian di area tersebut terbatas pada perusahaan berkantong tebal seperti Google, yang memiliki DeepMind, dan Microsoft, pemilik semu dari OpenAI .

Mengintegrasikan pengetahuan dunia dan akal sehat ke dalam AI
Ilmuwan komputer dan pemenang Turing Award Judea Pearl, yang terkenal karena karyanya pada jaringan Bayesian dan inferensi kausal, menekankan bahwa sistem AI membutuhkan pengetahuan dunia dan akal sehat untuk memanfaatkan data yang diberikan secara efisien.

“Saya percaya kita harus membangun sistem yang memiliki kombinasi pengetahuan dunia bersama dengan data,” kata Pearl, menambahkan bahwa sistem AI yang hanya didasarkan pada pengumpulan dan pemrosesan data dalam jumlah besar secara membabi buta pasti akan gagal.

Pengetahuan tidak muncul dari data, kata Pearl. Sebaliknya, kami menggunakan struktur bawaan di otak kami untuk berinteraksi dengan dunia, dan kami menggunakan data untuk menginterogasi dan belajar dari dunia, seperti yang disaksikan pada bayi baru lahir, yang mempelajari banyak hal tanpa diinstruksikan secara eksplisit.

“Struktur semacam itu harus diterapkan secara eksternal pada data. Bahkan jika kita berhasil dengan keajaiban untuk mempelajari struktur itu dari data, kita masih perlu memilikinya dalam bentuk yang dapat dikomunikasikan dengan manusia, ”kata Pearl.

Profesor Universitas Washington Yejin Choi juga menggarisbawahi pentingnya akal sehat dan tantangan ketidakhadirannya pada sistem AI saat ini, yang berfokus pada memetakan data masukan ke hasil.

“Kami tahu bagaimana memecahkan dataset tanpa menyelesaikan tugas yang mendasarinya dengan pembelajaran mendalam hari ini,” kata Choi. “Itu karena perbedaan yang signifikan antara AI dan kecerdasan manusia, terutama pengetahuan tentang dunia. Dan akal sehat adalah salah satu bagian yang hilang. “

Choi juga menunjukkan bahwa ruang penalaran tidak terbatas, dan penalaran itu sendiri adalah tugas generatif dan sangat berbeda dari tugas kategorisasi yang cocok untuk algoritma pembelajaran mendalam saat ini dan tolok ukur evaluasi. “Kami tidak pernah menghitung terlalu banyak. Kami hanya bernalar dengan cepat, dan ini akan menjadi salah satu tantangan mendasar, intelektual yang dapat kami pikirkan untuk maju, ”kata Choi.

Tapi bagaimana kita mencapai akal sehat dan penalaran dalam AI? Choi menyarankan berbagai bidang penelitian paralel, termasuk menggabungkan representasi simbolik dan saraf, mengintegrasikan pengetahuan ke dalam penalaran, dan membangun tolok ukur yang bukan hanya kategorisasi.

Kita masih belum tahu jalan sepenuhnya menuju akal sehat, kata Choi, menambahkan, “Tapi satu hal yang pasti adalah kita tidak bisa begitu saja ke sana dengan membuat gedung tertinggi di dunia lebih tinggi. Oleh karena itu, GPT-4, -5, atau -6 tidak dapat memotongnya. ”

Baca Juga:

[adrotate banner=”5″]
banner 300x250

Pos terkait