Oleh: Sjamsul Bahri
Alumni S3 IPB Tahun 1987, Purnabakti Profesor Riset Kementan RI

Sjamsul Bahri
RINGKASAN
AI atau Kecerdasan Buatan adalah cabang ilmu pengetahuan dan teknologi yang berfokus pada pembuatan sistem atau mesin yang dapat meniru kemampuan berpikir, belajar, dan mengambil keputusan seperti manusia. Saat ini AI sangat populer, hampir seluruh masyarakat dunia telah familiar dengan AI. Selain memberikan kontribusi positif bagi kehidupan masyarakat, terdapat juga dampak negatif yang ditimbulkannya. Tulisan ini bertujuan untuk mengulas konsep dan peran AI dalam kehidupan masa kini dan yang akan datang, memberikan pemahaman bahwa AI mengintegrasikan multidisiplin ilmu yang memberikan kontribusi signifikan dalam riset dan kemajuan IPTEK, serta mengulas perjalanan panjang penelitian terkait AI yang membuat AI memiliki dampak besar terhadap IPTEK dan kesejahteraan manusia sehingga pada tahun 2024 AI mendapatkan anugerah Nobel dibidang fisika. Awal kecerdasan buatan dimulai ketika Alan Turing pada tahun 1950 memperkenalkan ide dasar pembelajaran mesin dalam makalahnya yang berjudul “Computing Machinery and Intelligence.” Turing seorang matematikawan dan akhli komputer mengusulkan konsep Turing test, sebuah tes yang dirancang untuk mengukur kemampuan kecerdasan buatan (AI) dalam meniru kecerdasan manusia yang memunculkan gagasan bahwa mesin dapat belajar untuk meniru cara berpikir manusia. Dalam uji tersebut, jika penguji tidak dapat membedakan mana yang jawaban manusia dan mana yang dari mesin untuk pertanyaan yang sama, maka lulus dari uji dan dianggap kecerdasan mesin setara dengan manusia. Pada tahun 1952 Arthur Samuel dengan program checker yaitu suatu permainan menggunakan pembelajaran mesin yang dapat belajar dari pengalaman menggunakan sistem komputer dengan konsep pembejaran, dan inilah untuk pertama kalinya istilah pembelajaran mesin (machine Learning) diperkenalkan. Program ini sering disebut sebagai pionir dalam pengembangan AI berbasis pembelajaran mesin, sehingga dianggap salah satu ekperimen pertama yang menunjukkan bagaimana komputer dapat belajar dari pengalaman dan konsep ini mempengaruhi perkembangan machine learning modern. Pada tahun 1956, John McCarthy seorang tokoh penting dalam sejarah ilmu komputer yang kemudian dikenal sebagai Bapak AI, adalah yang pertama kali menciptakan istilah Artificial Intelligence ketika mengorganisasi konferensi “Dartmouth” yang menjadi tonggak awal pengembangan AI sebagai bidang studi formal. McCarthy adalah pionir dalam bidang AI dan memiliki visi tentang mesin yang bisa “berpikir” seperti manusia dan melakukan penalaran logis. Ia berperan besar dalam pengembangan konsep komputasi modern seperti cloud computing dan juga dalam menciptakan LISP (1958) sebagai bahasa untuk menulis program AI yang menjadi bahasa dominan dalam riset AI selama puluhan tahun. Jauh sebelum Turing dan McCarthy memperkenalkan istilah AI, pada tahun 1943 Warren McCulloch dan Walter Pitts memperkenalkan model neuron tiruan pertama dimana mereka mengembangkan model matematika sederhana tentang cara kerja neuron biologis dalam otak manusia yang disebut McCulloch-Pitts sebagai neuron. Pada tahun 1958 Frank Rosenblatt memperkenalkan model awal jaringan syaraf tiruan (JST) yang disebut Perceptron yang merupakan algoritma pertama yang mampu belajar dan melakukan klasifikasi linier berdasarkan data input, namun Perceptron ini hanya bisa untuk yang sederhana, tidak bisa untuk data yang besar dan kompleks, sehingga pada tahun 1960-an sampai tahun 1979-an penelitian JST ini stagnan tidak ada kemajuan yang berarti sampai kemudian pada tahun 1980-an muncul kembali penelitian JST yang dipelopori oleh John Hopfield yang menghidupkan kembali riset di bidang JST. Pada era 1950-an sebenarnya sudah ada AI generasi awal atau AI tradisional, yaitu AI ala McCarthy (1950-an) yang menggunakan pendekatan simbolik/logika. AI pada masa ini dicirikan dengan berbasiskan aturan logika, pengetahuan eksplisit, dan manipulasi simbol. Dalam hal ini komputer diberi aturan-aturan buatan manusia, bukan belajar sendiri dari data. Kelemahannya, antara lain adalah sulit menangani ketidakpastian atau konteks dunia nyata yang kompleks, butuh banyak aturan manual sehingga tidak bisa untuk skala atau data besar atau tugas yang kompleks. AI generasi awal tidak bisa belajar sendiri sehingga penggunaannya sangat terbatas, ML (machine learning) yang digunakan juga ML konvensional dan belum ada Deep Learning. AI hanya bisa menggunakan algoritma klasik seperti regresi linear dan logistik yang digunakan untuk prediksi sederhana. Oleh karena itu AI generasi awal ini tidak dapat berkembang lebih lanjut hanya sampai tahun 1979-an. Pada tahun 1980-an-2010-an pengembangan AI menuju kepada AI modern berbasiskan pembelajaran mesin (ML/machine learning) yang disertai dengan pembelajaran mendalam (DL/deep learning) menggunakan JST, dan dihela oleh data yang besar/big data. Dengan tokoh utamanya antara lain John Hopfield dan Geoffrey Hinton yang kelak memperoleh hadiah Nobel. AI modern ini dicirikan dengan belajar dari data bukan aturan eksplisit, menggunakan statistik, algoritma pembelajaran seperti neural networks, decision trees, support vector machines, dll. Saat ini AI yang berkembang dan banyak digunakan adalah AI modern yang diawali dengan konsep jaringan syaraf tiruan yang diciptakan Hopfield tahun 1982 berbasiskan konsep pembelajaran mesin, dan dikembangkan Hinton tahun 1985 dengan menciptakan jaringan syaraf tiruan mesin Boltzmann. Namun hal ini baru menjadi populer pada awal dan pertengan tahun 2000-an dengan maraknya pengembangan pembelajaran mesin memanfaatkan struktur jaringan syaraf tiruan dan teori memori asosiatif dari Hopfield dan jaringan syaraf tiruan mesin Boltzmann dari Hinton. Andalan utama dari AI modern adalah JST. Hampir semua sistem AI yang kompleks saat ini menggunakan jaringan saraf tiruan, terutama dalam Deep Learning. JST memungkinkan AI untuk belajar dari data besar dan mengidentifikasi pola yang kompleks, yang sulit dilakukan dengan pendekatan algoritmik tradisional. Teknologi canggih seperti ChatGPT, Google Translate, dan kendaraan otonom menggunakan JST dalam bentuk Deep Learning, yaitu JST dengan banyak lapisan (Deep Neural Networks). Jadi JST adalah teknologi inti di balik banyak inovasi AI modern. Hampir semua sistem AI yang kompleks saat ini menggunakan jaringan saraf tiruan, terutama dalam Deep Learning. Dapat dikatakan bahwa Jaringan Syaraf Tiruan adalah fondasi utama dalam perkembangan AI modern. Tanpa JST, AI tidak akan mampu mencapai tingkat kecerdasan yang kita lihat saat ini. Semakin besar dan dalam arsitektur JST, semakin canggih AI yang bisa dikembangkan, seperti model GPT-4, DALL·E, dan AlphaGo yang mengalahkan manusia dalam permainan kompleks. Oleh karena itu JST bukan hanya penting tapi krusial dalam perkembangan AI modern. Terwujudnya JST pada AI modern saat ini tidak lepas dari peranan Hopfield dimana pada tahun 1982 ia memperkenalkan konsep jaringan saraf berulang (recurrent neural network – RNN) yang dikenal sebagai Hopfield Network/jaringan Hopfield yang bersifat asosiatif dan dinamis. Jaringan ini dapat menyimpan pola dalam bentuk memori dan melakukan pemulihan pola meskipun hanya sebagian informasi yang diberikan. Jaringan Hopfield ini mematahkan anggapan bahwa jaringan saraf tiruan tidak mampu menyelesaikan masalah kompleks. Model ini membuka jalan tidak hanya pembelajaran mesin tetapi riset lebih dalam di bidang pembelajaran mendalam (deep learning) dan pemrosesan sekuensial. Pada tahun 1985 G Hinton bersama Terrence Sejnowski mengembangkan JST Hopfield dengan memodifikasinya menjadi Mesin Boltzmann sehingga menambah kinerja kerja dari JST yang banyak dimanfaatkan dalam pengembangan AI modern. Sebagaimana dijelaskan di awal bahwa JST dan AI ini terinspirasi dari cara kerja otak dan jaringan syaraf manusia, sehingga perangkat berupa neuron buatan yang terdiri dari “lapisan input”, “lapisan tersembunyi” dan “lapisan output” harus diberikan data/informasi sebanyak mungkin agar mesin cerdas ini mendapat pelatihan dari data yang ada sehingga menjadi “cerdas” dapat merespons berbagai pertanyaan. Perangkat AI yang diciptakan ini dapat menyimpan informasi/data dan merekonstruksinya kembali ketika akan digunakan atau diperlukan kembali. Perangkat atau mesin AI ini, untuk bisa berpikir seperti manusia harus dilatih sebagaimana manusia yang juga harus terus belajar. Oleh karena itu mesin AI harus dijejali oleh banyak data/informasi baik berupa data terstruktur maupun data tidak terstruktur. Oleh karenanya Perangkat atau Mesin AI yang diciptakan harus bisa berfungsi sebagai sistem yang dapat menjalankan proses penyimpanan data dan dapat diproses lebih lanjut. Untuk itu harus ada model yang dapat memahami ketentuan tersebut dimana model harus dilatih dengan memanfaatkan data/informasi yang tersedia. Dalam memproses input/perintah, mesin harus banyak belajar, antara lain melalui perangkat Machine Learning, Deep Learning, NLP, dlsb. Pada tahun 2000-an JST dan pembelajaran mesin maupun pembelajaran mendalam semakin populer banyak diminati peneliti dan masyarakat ilmiah sehingga AI menjadi penghasil inovasi dan sains. Dalam AI, algorithma merupakan bagian penting dalam sistem berpikir mesin AI atau inti dari bagaimana kecerdasan buatan dapat memproses data, belajar dari pengalaman, dan membuat keputusan. Secara umum, algoritma dalam AI dirancang untuk mensimulasikan proses berpikir manusia, baik melalui pengambilan keputusan, pengenalan pola, atau prediksi. Selanjutnya pada tahun 2010-an sampai tahun 2024 pembelajaran mesin dan pembelajaran mendalam terkait dengan perkembangan JST yang semakin canggih dan populer banyak digunakan dalam perkembangan AI modern yang sangat bermanfaat dalam pengembangan inovasi dan sains. Pada tgl 8 Oktober 2024, panitia penghargaan Nobel mrngumumkan bahwa tokoh pencipta dan pengembang AI John J Hopfield dan G.E. Hinton sebagai pemenang hadiah Nobel di bidang Fisika untuk penemuan dan inovasi mendasar yang memungkinkan pembelajaran mesin dengan JST sebagai dasar pengembangan AI. Sebagaimana dijelaskan sebelumnya, John Hopfield pada tahun 1982 telah memperkenalkan jaringan Hopfield, sebuah model JST yang terinspirasi oleh sistem spin dalam fisika. Dengan menggunakan metode yang menjadi dasar bagi pembelajaran mesin yang canggih, Hopfield berhasil menciptakan struktur yang dapat menyimpan dan merekonstruksi informasi yang merupakan dasar dari AI. Sedangkan Geoffrey Hinton, pada tahun 1985, mengembangkan Mesin Boltzmann, sebuah jaringan saraf yang didasarkan pada prinsip-prinsip fisika statistik yang diperkenalkan oleh Ludwig Boltzmann. Mesin Boltzmann memanfaatkan konsep distribusi energi dalam sistem partikel untuk memungkinkan jaringan belajar mengenali pola dalam data. Ini merupakan cikal bakal Geoffrey Hinton menemukan metode yang dapat secara independen menemukan properti dalam data yang sangat penting bagi jaringan saraf tiruan besar yang menjadi dasar pengembangan pembelajaran mendalam (Depp Learning) yang sekarang digunakan dalam AI modern. Penerapan konsep fisika dalam pengembangan model-model ini menunjukkan bagaimana prinsip-prinsip fisika dapat digunakan untuk memahami dan memodelkan proses komputasi yang kompleks. Royal Swedish Academy of Sciences mengakui bahwa pendekatan berbasis fisika yang dilakukan oleh Hopfield dan Hinton telah membentuk dasar bagi banyak aplikasi AI modern, termasuk pengenalan pola, pemrosesan bahasa alami, dan visi komputer. Dengan demikian, meskipun AI adalah bidang interdisipliner yang mencakup ilmu komputer, matematika, statistik, teknik elektro, dan kognitif, kontribusi Hopfield dan Hinton menunjukkan bahwa konsep dan metode dari fisika fundamental memainkan peran penting dalam evolusi dan pemahaman jaringan saraf tiruan. Jadi penilaiannya difokuskan pada penemuan konsep jaringan syaraf tiruan yang menjadi inti dalam pengembangan AI. Inilah alasan utama mengapa penghargaan Nobel mereka diberikan dalam kategori Fisika. Mengapa penghargaan Nobel Fisika baru diperoleh Hopfield dan Hinton pada tahun 2024? Hal ini tidak terlepas dari peran AI yang terus berkembang pesat dan memiliki peran besar dalam sains, teknologi, dan masyarakat, menjadikannya salah satu bidang paling inovatif di era modern. Jika melihat rentang waktunya antara temuan awal Hopfield tentang JST pada tahun 1982 dan temuan Hinton tentang Mesin Boltzmann tahun 1985, maka untuk meraih penghargaan Nobel sebagai penghargaan Prestise bagi seorang Ilmuwan memerlukan waktu sekitar 40 tahun (42 tahun untuk Hopfield dan 38 tahun untuk Hinton). Inilah perjalanan panjang bagi peraih Nobel yang memang harus terbukti dahulu seberapa besar manfaatnya bagi pengembangan ilmu dan bagi kepentingan masyarakat dunia sesuai dengan amanah dari Alfred Nobel penggagas awal Nobel Prize.
PENDAHLUAN
Kecerdasan Buatan atau AI (Artificial Intelligence) adalah teknologi yang memungkinkan mesin untuk belajar, berpikir, dan membuat keputusan layaknya manusia. AI telah menjadi bagian tak terpisahkan dalam kehidupan modern, digunakan dalam berbagai sektor seperti kesehatan, pendidikan, industri, dan transportasi. AI juga berperan penting dalam menghasilkan inovasi, penelitian ilmiah, dan sains. Saat ini AI sudah sangat populer, hampir semua orang mengenal AI walaupun mungkin masing-masing orang mempunyai persepsi yang agak berlainan. Contoh yang paling sederhana pada setiap ada tayangan berupa gambar atau video yang agak “unik” seperti animasi atau video deepfake baik di media resmi maupun media sosial, baik di platform What App, Facebook, Instagram, Youtub, Tik Tok dan lain sebagainya, masyarakat awam selalu mengkaitkan bahwa hal itu adalah produk AI.
Contoh produk AI yang paling sering dimanfaatkan masyarakat antara lain adalah (1): a) penggunaan asistant virtual dan chatbot yang membantu mencari informasi, mnegontrol perangkat rumah pintar, Shoopee, Tokopedia, perbankan; b) pemanfaatan aplikasi penerjemah dan penulisan seperti Google translate dan grammarly; c) pemanfaatan kamera & pengolahan gambar seperti fitur keamanan di smart phone, filter dan editing otomatis snapchat dan adobe photoshop yang mengedit foto dan video secara otomatis; d) pemanfaatan navigasi & transportasi seperti Google Maps, Waze, dan Mobil Otonom yang dapat beroperasi tanpa pengemudi; e) penerapan AI di dunia kesehatan seperti untuk aplikasi diagnosa penyakit, dalam radiologi membaca hasil rongent dan MRI; dan f) penggunaan AI di dunia industri seperti penggunaan robot industri.
Apa yang disebutkan terdahulu adalah sebagian dari contoh-contoh nyata penggunaan AI dalam kehidupan nyata yang telah banyak dimanfaatkan berbagai golongan masyarakat. Belum lagi pemanfaatan AI dalam inovasi dan pengembangan ilmu pengetahuan yang semakin mempermudah para ilmuwan dalam melakukan risetnya seperti pada AlphaFold untuk memprediksi struktur dan fungsi protein (2, 3). Apa yang dikemukakan di atas adalah bagian dari AI modern yang berbasiskan jaringan syaraf tiruan yang banyak dipergunakan pada tahun 2010-an sampai saat ini.
AI membawa dampak positif yang signifikan dalam kehidupan manusia, mulai dari meningkatkan efisiensi, keamanan, hingga inovasi di berbagai sektor. Dengan pemanfaatan yang tepat, AI dapat membantu menciptakan dunia yang lebih maju dan nyaman. Manfaat nyata pada sektor kesehatan (a.l. membuat diagnosa penyakit), di sektor pendidikan (a.l. dalam pembelajaran adaptif), di bidang transportasi (a.l. mobil otonom), di sektor hiburan (a.l. film, musik, game), di sektor pertanian (a.l. memantau tanah, cuaca), di sektor lingkungan (a.l. memantau perubahan iklim), di sektor keuangan/bisnis, dalam meningkatkan efisiensi dan produktivitas usaha, dlsb.
AI telah berkembang pesat seiring dengan terus berkembangnya deep learning, machine learning, dan AI generatif, teknologi ini akan semakin berpengaruh dalam kehidupan sehari-hari saat ini dan di masa depan. Karena manfaat AI yang sangat signifikan, terutama kontribusi dari JST dalam pengembangan AI modern, maka pelopor pencipta JST, yaitu John Hopfield dan Geoffrey Hinton dianugerahi Penghargaan Nobel di bidang Fisika pada tahun 2024 (4).
Selain peranan dan kontribusi positif dari AI dalam berbagai hal, AI juga dapat memberikan dampak negatif akibat penyalahgunaan penggunaan AI oleh orang-orang yang tidak bertanggungjawab. Potensi bahaya yang perlu diwaspadai, antara lain: a) dapat menyebabkan pengangguran masal akibat otomatisasi, b) ancaman keamanan siber dan deepfake, c) pencurian data pribadi dan keuangan untuk kejahatan, d) penipuan dan lain sebagainya. Jadi AI adalah pedang bermata dua: ia dapat membawa kemajuan luar biasa tetapi juga menimbulkan bahaya jika tidak dikelola dengan baik. Oleh karena itu, diperlukan regulasi, etika, dan pengawasan ketat untuk memastikan bahwa AI tetap menjadi alat yang membantu manusia, bukan ancaman. Diyakini bahwa AI akan lebih banyak manfaatnya daripada mudaratnya jika dikelola dengan benar dan baik. Oleh karena itu perlu disebarluaskan artikel tentang AI yang ditulis dan dikemas secara sederhana, jelas dan populer agar masyarakat awam lebih mudah memahami tentang AI yang sebenarnya.
TUJUAN
Tulisan ini bertujuan untuk:
- Memahami konsep dan peranan AI dalam kehidupan masa kini dan kedepan terutama terkait dengan pengembangan inovasi, teknologi dan sains.
- Memahami bahwa berbagai ilmu dasar seperti matematika, kalkulus, statistik, sains data, ilmu komputer, teknik elektro, dlsb menjadi ilmu terapan yang mendasar dalam AI, dan AI mengintegrasikan multidisiplin ilmu yang memberikan banyak manfaat dalam menopang kehidupan masa kini dan masa depan.
- Memahami bahwa AI memberikan kontribusi yang sangat signifikan dalam riset dan kemajuan ilmu pengetahuan seperti kedokteran, bioteknologi dan bioinformatika, industri dan manufaktur, transportasi, lingkungan, pertanian, energi, keuangan, dan hiburan.
- Mengingatkan masyarakat bahwa AI memiliki dampak besar dalam berbagai aspek kehidupan saat ini dan masa depan. Pemahaman tentang prinsip kerja AI serta bidang pekerjaan yang akan sangat dipengaruhi oleh AI dapat membantu generasi muda mempersiapkan diri menghadapi perkembangan teknologi yang pesat dan menuntut kita agar terus belajar.
- Menelaah perjalanan panjang suatu topik penelitian Jaringan Syaraf Tiruan yang menghasilkan manfaat besar dalam inovasi dan kemajuan IPTEK serta berujung dengan penghargaan Nobel.
- Memberikan pemahaman bahwa Penelitian suatu topik (JST) untuk sampai memberi manfaat besar seperti yang diperlihatkan pada AI Modern saat ini membutuhkan ketekunan dari berbagai peneliti lintas generasi, lintas institusi, lintas disiplin ilmu, dan dilakkukan secara berjenjang/bertahap serta tidak mengenal putus asa.
PENGERTIAN AI ATAU KECERDASAN BUATAN
Menurut Kamus Besar Bahasa Indonesia bahwa Kecerdasan Buatan adalah Program komputer dalam meniru kecerdasan manusia, seperti mengambil keputusan, menyediakan dasar penalaran, dan karakteristik manusia lainnya. Definisi atau pengertian AI banyak sekali versinya, tetapi pada umumnya memiliki makna yang sama. Dalam tulisan ini pengertian AI diambil dari berbagai sumber seperti yang dikemukakan lebih lanjut dalam tulisan ini. Sebagaimana diketahui bahwa AI (artificial intelligence) atau Kecerdasan Buatan adalah teknologi yang memungkinkan mesin untuk belajar, berpikir, dan membuat keputusan layaknya manusia. Pengertian AI secara lebih lengkap adalah cabang ilmu pengetahuan dan teknologi yang berfokus pada pembuatan sistem atau mesin yang dapat meniru kemampuan berpikir, belajar, dan mengambil keputusan seperti manusia. Dengan kata lain, AI dirancang untuk memungkinkan mesin melakukan tugas-tugas yang biasanya memerlukan kecerdasan manusia, seperti memahami bahasa, mengenali pola, memecahkan masalah, dan membuat keputusan.
Definisi lain, AI (Artificial Intelligence) atau Kecerdasan Buatan adalah cabang ilmu komputer yang berfokus pada pembuatan sistem yang dapat melakukan tugas-tugas yang biasanya membutuhkan kecerdasan manusia. Tugas-tugas ini mencakup pengenalan pola, pembelajaran, penalaran, pemecahan masalah, dan pengambilan keputusan. AI saat ini banyak digunakan dalam machine learning, deep learning, dan natural language processing (NLP). Penerapannya sangat luas, dari otomatisasi industri, analisis data, hingga pengembangan robot cerdas.
Menurut John McCarthy pencetus istilah AI (5, 6)): bahwa AI adalah “ilmu dan teknik untuk membuat mesin cerdas, terutama program komputer cerdas.” Sedangkan definisi modern, AI adalah simulasi proses kecerdasan manusia oleh mesin, terutama sistem komputer, yang mencakup pembelajaran (learning), penalaran (reasoning), dan koreksi diri (self-correction). Kecerdasan Buatan (AI) saat ini bukan hanya sebuah teknologi populer, tetapi juga sudah menjadi cabang ilmu tersendiri dalam dunia akademik maupun industri. Namun, AI adalah bidang yang multidisiplin, artinya ia mengambil dan mengintegrasikan konsep dari berbagai ilmu lainnya. AI terus berkembang pesat dan memiliki peran besar dalam sains, teknologi, dan masyarakat, menjadikannya salah satu bidang paling inovatif di era modern. Dengan keberadaan AI semakin banyak memperlihatkan manfaat dan peran dari ilmu matematika, statistik, kalkulus, sains data, dlsb yang dahulu seolah-olah hanya sebagai pengetahuan dasar saja ternyata memainkan peran besar dalam penerapan AI.
AI modern yang saat ini populer, dapat terwujud berkat keberadaan JST yang dikembangkan oleh John Hopfield pada tauhn 1982 (7, 12) dan Geoffrey Hinton serta peneliti lainnya pada tahun 1985 dan seterusnya (8, 9, 10, 11). Jaringan Syaraf Tiruan atau jaringan Hopfield ini dapat menyimpan pola (informasi) dan menciptakannya kembali (merekonstruksi kembali). Ketika jaringan diberi pola yang tidak lengkap atau sedikit terdistorsi, metode tersebut dapat menemukan pola tersimpan yang paling mirip (memanfaatkan teori memori asosiatif dari Hopfield). Inilah cikal bakal mesin cerdas dimana mesin dapat menyimpan informasi dan dapat diambil kembali informasi tersebut bahkan dengan merangkai berbagai data/informasi lainnya sesuai dengan perintah.
SEJARAH PERKEMBANGAN JARINGAN SYARAF TIRUAN DAN AI
- Sejarah singkat Jaringan Syaraf Tiruan
Jaringan Syaraf Tiruan (JST) yang menjadi bagian terpenting dalam pengembangan AI modern tidak dikembangkan oleh seorang santis saja namun secara berjenjang dan bertahap JST ini dirintis oleh berbagai peneliti lintas generasi dan lintas institusi. Pada tulisan ini akan diuraikan sejarah JST secara ringkas. Perintis pertama yang tercatat dalam penelitian JST adalah Warren McCulloch dan Walter Pitts pada tahun 1943 yang memperkenalkan model neuron tiruan pertama dimana mereka mengembangkan model matematika sederhana tentang cara kerja neuron biologis dalam otak manusia yang disebut McCulloch-Pitts neuron, dimana model ini menjadi dasar bagi jaringan saraf tiruan yang kemudian dikembangkan lebih lanjut (13, 14). Tetapi model JST yang dikembangkan McCulloch-Pitts ini belum ada konsep belajarnya atau tidak dapat belajar sendiri. Dapat dikatakan bahwa JST ini adalah JST pertama yang pernah ada.
Pada tahun 1958 Frank Rosenblatt menciptakan model JST pertama yang bisa belajar dari data yang disebut Perceptron yang kelak merupakan dasar dari JST modern (15, 16). Perceptron ini diimplementasikan dan sekaligus diuji pada sistem komputer pertama yang dapat mengenali pola sederhana. Jadi dapat dikatakan bahwa Rosenblatt adalah orang pertama yang mengembangkan JST yang dapat belajar, walaupun masih sangat sederhana tetapi menjadikannya pelopor penting dalam AI berbasis JST (17, 18). Namun JST Perceptron banyak kekurangannya, antara lain tidak bisa menyelesaikan masalah XOR (masalah non-linear). Kelemahan ini menjadi sorotan/kritikan dari Marvin Minsky dan Seymour Papert dalam buku mereka yang berjudul “Perceptrons” pada tahun 1969 (19, 20, 21, 22). Mereka menunjukkan bahwa perceptron tidak mampu memecahkan fungsi XOR karena keterbatasannya dalam memproses pola yang tidak dapat dipisahkan secara linear (22).
Akibat kritikan Marvin Minsky terjadi stagnasi dalam pengembangan JST sampai dengan awal tahun 1980-an. Kemudian pada tahun 1980-an awal, baru terjadi kebangkitan kegiatan riset JST, dimana John Hopfield pada tahun 1982 mengembangkan Jaringan Hopfield (Hopfield Network), yang bisa menyimpan dan mengingat pola berupa memori asosiatif (23, 24). Jaringan Hopfield adalah jenis jaringan saraf berulang (recurrent neural network – RNN) yang digunakan untuk penyimpanan asosiatif dan pemulihan pola. Model ini memiliki properti energi minimum, di mana jaringan akan berusaha mencari keadaan dengan energi terendah, seperti sistem fisika yang mencapai keseimbangan.
Terdapat banyak kemajuan yang diperoleh Hopfield dalam pengembangan JST, dan yang terpenting Hopfield telah menghidupkan kembali minat dan gairah para peneliti dibidang JST yang telah stagnan selama lebih dari satu dekade. Hopfield berhasil membuat JST kembali populer dengan model yang lebih komplek, sehingga Hopfield mematahkan anggapan bahwa jaringan saraf tiruan tidak mampu menyelesaikan masalah kompleks. Jaringan Hopfield ini menjadi dasar pengembangan algoritma recurrent neural network (RNN) yang banyak digunakan untuk pemrosesan data berurutan, seperti teks dan sinyal suara. Meskipun saat ini model jaringan saraf yang lebih kompleks seperti Deep Learning lebih dominan, jaringan Hopfield tetap berperan dalam bidang AI yang memerlukan memori asosiatif dan optimasi, serta menjadi landasan teori bagi perkembangan jaringan saraf modern. Hingga tahun 2000-an, meskipun jaringan Hopfield memiliki keterbatasan seperti kemampuan penyimpanan terbatas, model ini tetap berkontribusi besar dalam pengembangan jaringan saraf modern dan teknik optimasi (25,26). Tanpa Hopfield mungkin perkembangan JST mungkin tidak akan secepat ini.
Pada tahun 1985-an Geofrey Hinton mengembangkan JST temuan Hopfield dan berhasil menciptakan JST yang dikenal dengan Mesin Boltzmann, dan selanjutnya mempopulerkan Backpropagation dengan Algoritma yang membuat JST dapat belajar lebih efsien (8,9,11,52,31). Hinton juga mengembangkan Multi-layer Perceptron (MLP) sehingga dapat menyelesaikan masalah XOR yang tidak dapat diselesaikan oleh JST Perceptron tunggal. Temuan Hinton juga berupa Deep Learning Modern yaitu model yang menjadi dasar dari AI canggih seperti CNN, RNN, Transformers/ChatGPT, dll (27,28). Pada tahun 2006 Hinton mengembangkan Deep Belief Networks (DBN), yang membuka jalan bagi perkembangan Deep Learning (29,30). Mungkin tanpa Hinton Deep Learning tidak akan berkembang seperti sekarang, sehingga Hinton sering disebut juga sebagai “Bapak Deep Learning”.
Pada tahun 1990-an-2020-an Yann LeCun ikut mengembangkan JST berupa Convolutional Neural Networks (CNN), yang digunakan dalam pengenalan gambar seperti Face ID dan OCR (32,33,34). Yoshua Bengio berkontribusi besar dalam pengenalan pola & NLP (Natural Language Processing), sedangkan Jürgen Schmidhuber pada tahun 1997 ikut berkontribusi dalam mengembangkan Long Short-Term Memory (LSTM) untuk pemrosesan bahasa alami & suara yang juga sebagai bagian dari pengembangan Deep Learning Modern (35,36,37,38). Itulah sebagian dari tokoh-tokoh peneliti yang berkontribusi dalam perjalanan sejarah penciptaan dan pengembangan JST yang merupakan bagian penting dari AI Modern.
Jaringan Syaraf Tiruan berperan sangat penting dalam pengembangan AI, terutama dalam bidang Machine Learning (ML) dan Deep Learning (DL). JST ini meniru cara kerja otak manusia dalam mengenali pola dan membuat keputusan berdasarkan data. Dapat dikatakan bahwa Jaringan Syaraf Tiruan adalah fondasi utama dalam perkembangan AI modern, terutama di era Deep Learning. Tanpa JST, AI tidak akan mampu mencapai tingkat kecerdasan yang kita lihat saat ini. Semakin besar dan dalam arsitektur JST, semakin canggih AI yang bisa dikembangkan, seperti model GPT-4, DALL·E, dan AlphaGo yang mengalahkan manusia dalam permainan kompleks.
- Sejarah singkat tentang AI
Konsep pembelajaran mesin (machine learning) muncul dari perkembangan dalam bidang kecerdasan buatan (artificial intelligence) dan statistika sejak pertengahan abad ke-20. Awal kecerdasan buatan dimulai ketika Alan Turing (1912-1954) pada tahun 1950 memperkenalkan ide dasar pembelajaran mesin dalam makalahnya yang berjudul “Computing Machinery and Intelligence” (39,40). Turing seorang matematikawan dan akhli komputer serta salah seorang Bapak Ilmu Komputer, mengusulkan konsep Turing test, sebuah tes yang dirancang untuk mengukur kemampuan kecerdasan buatan dalam meniru kecerdasan manusia yang memunculkan gagasan bahwa mesin dapat belajar untuk meniru cara berpikir manusia. Dalam uji tersebut, jika penguji tidak dapat membedakan mana yang jawaban manusia dan mana yang dari mesin untuk pertanyaan yang sama, maka lulus dari uji dan dianggap kecerdasan mesin setara dengan manusia.
Kemudian pada tahun 1952 Arthur Samuel dengan program checker yaitu suatu permainan menggunakan pembelajaran mesin yang dapat belajar dari pengalaman menggunakan sistem komputer dengan konsep pembejaran, dan inilah untuk pertama kalinya istilah pembelajaran mesin (machine Learning) diperkenalkan (41). Program ini sering disebut sebagai pionir dalam pengembangan AI berbasis pembelajaran mesin, sehingga dianggap salah satu ekperimen pertama yang menunjukkan bagaimana komputer dapat belajar dari pengalaman dan konsep ini menjadi dasar bagi perkembangan machine learning modern.
Pada tahun 1956 John McCarthy yang kemudian dikenal sebagai Bapak AI, seorang tokoh penting dalam sejarah ilmu komputer, adalah yang pertama kali menciptakan istilah “Artificial Intelligence”, ketika beliau mengorganisasi konferensi Dartmouth yang menjadi tonggak awal pengembangan AI sebagai bidang studi formal (5,6). McCarthy adalah pionir dalam bidang AI dan memiliki visi tentang mesin yang bisa “berpikir” seperti manusia dan melakukan penalaran logis (42,43). Ia berperan besar dalam pengembangan sistem berbagi waktu, yang menjadi dasar dari konsep komputasi modern seperti cloud computing dan juga dalam menciptakan LISP/ LISt Processing Language (1958) sebagai bahasa untuk menulis program AI yang menjadi bahasa dominan dalam riset AI selama bertahun-tahun, Ia mengembangkan pendekatan yang dikenal sebagai penalaran simbolik dan logika. McCarthy percaya bahwa mesin cerdas harus bisa memahami dan menggunakan pengetahuan umum (common sense reasoning) (42,44,45,46). AI tidak sekadar automasi tugas, tapi menciptakan mesin yang benar-benar bisa memahami, belajar, dan beradaptasi. Jadi John McCarthy bukan hanya penggagas AI secara konsep, tapi juga seorang arsitek utama pendekatan AI berbasis simbolik dan logika (47,48). Ia berkontribusi besar dalam fondasi teknis dan filosofis yang masih jadi dasar diskusi AI modern terutama soal bagaimana merepresentasikan pengetahuan dan berpikir logis seperti manusia.
Pada tahun 1958 Frank Rosenblatt mengembangkan Perceptron, algoritma pertama yang mampu belajar dan melakukan klasifikasi linier berdasarkan data input (15,16). Perceptron ini adalah model awal dari JST. Tokoh-tokoh AI lainnya adalah Marvin Minsky, Allen Newell & Herbert Simon (21,49,50). Selanjutnya pada tahun 1960-an sampai tahun 1979-an JST Perceptron mengalami stagnan karena JST ini hanya untuk penyelesaian pekerjaan yang menggunakan persamaan linear saja. Baru pada tahun 1980-an penelitian dan pengembangan JST mulai bangkit kembali dimana John Hopfield sebagai salah satu pelopornya dengan temuannya mengenai JST yang dikenal dengan Jaringan Hopfield. Selain itu kebangkitan JST pada tahun 1980-an juga dengan adanya algoritma backpropagation untuk melatih jaringan saraf yang ditemukan kembali dan dipopulerkan oleh David Rumelhart, Geoffrey Hinton, dan Ronald Williams (51).
Model JST temuan Hopfield terinspirasi oleh prinsip termodinamika dalam fisika, di mana jaringan akan mencapai keadaan stabil (energi minimum) saat menemukan solusi optimal. Hopfield dengan temuannya berupa Jaringan Hopfield telah membangkitkan kembali minat para peneliti terhadap jaringan syaraf tiruan, memperkenalkan pendekatan yang lebih terstruktur dan berbasis pada prinsip matematika dan fisika, dan menjadi dasar pengembangan algoritma recurrent neural network (RNN) yang banyak digunakan untuk pemrosesan data berurutan, seperti teks dan sinyal suara.
Dampak dari Jaringan Hopfield antara lain: a) menunjukkan bahwa jaringan saraf mampu melakukan komputasi kompleks dan dapat digunakan untuk optimalisasi dan pemecahan masalah kombinatorial; b) konsep energi dalam Jaringan Hopfield menjadi inspirasi dalam pengembangan Mesin Boltzmann oleh Geoffrey Hinton dan Terrence Sejnowski (8,11,51); c) mematahkan anggapan bahwa jaringan saraf tiruan tidak mampu menyelesaikan masalah kompleks; dan d) membuka jalan bagi riset lebih dalam di bidang pembelajaran dalam (deep learning) dan pemrosesan sekuensial (seperti dalam RNN dan LSTM).
Kemudian pada tahun 2000-an dimulai dengan era Big Data dan Deep Learning yang diikuti dengan kemajuan dalam komputasi dan ketersediaan data besar (big data) memungkinkan pengembangan model pembelajaran yang lebih kompleks. Dalam hal ini Geofrey Hinton, Yann LeCun, dan Yoshua Bengio memimpin kemajuan dalam deep learning dengan pengembangan arsitektur jaringan saraf dalam (DNN/ Deep Neural Networks). Selanjutnya pada 2010 sampai tahun 2024 pembelajaran mesin dan pembelajaran mendalam terkait dengan perkembangan JST yang semakin populer banyak digunakan delam perkembangan AI modern yang sangat bermanfaat dalam pengembangan inovasi dan sains. Perkembangan utama dipengaruhi oleh kemajuan dalam jaringan saraf tiruan, statistika, dan komputasi. Revolusi deep learning sejak tahun 2010-an membuat pembelajaran mesin dan pembelajaran mendalam semakin kuat dan efektif di banyak bidang.
BAGAIMANA MESIN DAPAT BERPIKIR SEPERTI MANUSIA
Gagasan dan ide mesin pintar, pada mulanya muncul dari pertanyaan sebagian akhli komputer apakah mesin dapat belajar memproses pola dengan cara yang sama seperti manusia, dan menemukan caranya untuk menyortir dan menafsirkan informasi/data yang diberikan. Mesin yang secara fisik adalah benda mati bukan benda biologis harus dibuatkan perangkat antara lain berupa JST (jaringan syaraf tiruan) yang dapat mengelola berbagai informasi/data layaknya jaringan otak manusia yang akan digunakan dalam simulasi komputer. Untuk bisa menjadi cerdas atau pintar, maka mesin/perangkat tersebut harus diberikan masukan atau informasi sebanyak-banyaknya sebagaimana dengan manusia agar pintar dan banyak tahu berbagai hal tentu harus belajar berbagai hal untuk mengisi otaknya dengan berbagai ilmu pengetahuan. Tentunya perangkat berupa mesin cerdas tersebut harus dirakit sehingga menjadi sistem yang dapat menerima atau menyimpan data/informasi yang diberikan dan juga dapat diambil kembali serta diproses atau dirangkai sesuai urutan (algoritma) yang diperlukan agar dapat memberikan jawaban atau respon atas pertanyaan/permintaan yang diterima mesin pintar tsb.
Dapat dibayangkan seberapa besarnya data (big data) yang harus dimasukkan/di input ke mesin tsb baik data terstruktur (berupa angka, tabel atau database) maupun data tidak terstruktur (spserti teks, gambar, video, dan suara). Melalui pembelajaran mesin ternyata mesin cerdas mampu menerima dan belajar dengan relatif lebih cepat terhadap begitu banyak data yang diberikan, bahkan model deep learning yang disebut AlexNet – jaringan syaraf mendalam (deep neural networks) mampu menerima pelatihan sebanyak 68 juta parameter dalam waktu setengah hari tergantung pada beberapa faktor utama seperti arsitektur model, ukuran dan kompleksitas dataset, serta sumber daya komputasi yang tersedia. Makanya tingkat keberhasilan AI juga akan tergantung kepada kualitas data dan algoritma yang digunakan. Oleh karena itu agar sistem ini dapat berjalan sebagaimana mestinya, para akhli dibidang komputer, matematika, fisika, dlsb menciptakan perangkat dan mekanisme kerjanya dengan membuat berbagai komponen dan elemen dalam penciptaan AI. Secara garis besar akan diulas komponen-komponen AI dimaksud.
Komponen utama dalam AI mencakup elemen-elemen yang memungkinkan sistem untuk berpikir, belajar, dan mengambil keputusan seperti manusia. AI dirancang untuk mengolah data, mengenali pola, dan melakukan tindakan berdasarkan data yang diberikan. Dalam AI harus terdapat komponen-komonen penting seperti cara kerja otak manusia, oleh karena itu harus diciptakan perangkat untuk menampung berbagai data dan informasi yang disebut pembelajaran mesin (Machine Learning) dan pembelajaran mendalam (Deep Learning).
Dalam pembelajaran ini tentu saja harus ada model yang dibangun dahulu termasuk algoritmanya dan kemudian dilakukan pelatihan-pelatihan agar perangkat dapat bekerja dan terbiasa dengan sistem yang diciptakan. Sebagaimana diketahui bahwa model AI adalah sistem atau program yang dirancang untuk meniru kecerdasan manusia dengan mempelajari pola dari data, membuat prediksi, mengambil keputusan, atau menyelesaikan tugas tertentu.
Oleh karena itu untuk mengoperasionalkan AI harus dibangun mesin AI berupa sistem atau platform yang terdiri dari model AI, data, komputasi, pipline dan infrastruktur. Model AI dibangun menggunakan algoritma dan teknik dari bidang machine learning dan deep learning. Komponen utama dari model AI ini adalah data, algoritma, pelatihan (training), prediksi (inferensi), dan evaluasi. Model AI membutuhkan data sebagai bahan pembelajaran, seperti teks, gambar, suara, atau video. Semakin banyak dan berkualitas data yang digunakan, semakin baik hasil yang dihasilkan model.
Algoritma adalah kumpulan instruksi matematis yang memungkinkan model untuk menganalisis data, menemukan pola, dan membuat keputusan. Beberapa jenis algoritma yang umum digunakan (regresi, pohon keputusan, jaringan syaraf tiruan, pengelompokan/clustering). Proses pelatihan adalah saat model mempelajari pola dari data yang diberikan. Model akan menyesuaikan parameter internalnya untuk meminimalkan kesalahan dalam hasil yang diperolehnya. Setelah pelatihan selesai, model digunakan untuk memprediksi atau mengambil keputusan berdasarkan data baru yang belum pernah dilihat sebelumnya.
Kinerja model dievaluasi dengan ukuran menggunakan metrik seperti akurasi, presisi, recall, dan skor untuk memastikan hasilnya sesuai dengan tujuan. Jadi model AI dengan Algoritma atau arsitektur yang dibangun adalah yang memungkinkan sistem belajar dari data dan membuat prediksi atau keputusan. Sedangkan data atau Informasi yang tersedia digunakan untuk melatih dan mengoperasikan model AI.
Komputasi berupa Perangkat keras (seperti GPU/ Graphics Processing Unit atau TPU/Tensor Processing Unit) dan perangkat lunak diperlukan untuk melakukan proses komputasi model AI. Sedangkan Pipeline dan Infrastruktur diperlukan dalam prosesing untuk mengelola data, pelatihan model, evaluasi, dan penerapan ke dunia nyata. Jadi, mesin AI adalah kombinasi antara perangkat keras, perangkat lunak, model, dan data yang bekerja bersama untuk menyelesaikan tugas tertentu dengan cara otomatis atau semi-otomatis.
Pembelajaran harus terus dievaluasi dan diperbaiki kemampuan kerjanya agar model dapat digunakan dengan memuaskan. Semakin banyak data yang diberikan akan semakin baik, hal ini akan meningkatkan kemampuan AI untuk menyerap dan menggunakan data, memproses informasi, dan memperbaiki diri berdasarkan pengalaman. Demikian juga pada komponen penalaran (reasoning), diperlukan agar memiliki kemampuan untuk menggunakan logika dalam mengambil keputusan atau memecahkan masalah berdasarkan informasi yang tersedia.
Komponen lainnya adalah pemerosesan bahasa alami yang memungkinkan AI untuk memahami, menghasilkan, dan berinteraksi dengan bahasa manusia. Untuk memiliki kemampuan dalam persepsi pengenalan dan pengolahan input sensorik seperti gambar, suara, dan video diperlukan komponen lain berupa teknologi komputer vision dan teknologi pengenalan suara. AI juga perlu dilengkapi dengan komponen lain agar memiliki kemampuan untuk menyesuaikan diri dengan lingkungan baru atau tugas baru tanpa perlu pemrograman ulang.
Komponen-komponen AI akan digabungkan berdasarkan model matematika dan pengembangan algoritma, model prediktif, dan pemrosesan data dalam AI termasuk penggabungan linguistik dengan algoritma komputasi untuk membuat sistem seperti chatbot, analisis teks, atau penerjemahan otomatis. Komponen-komponen inilah yang akan memproses setiap input baik berupa teks atau suara sehingga akan dihasilkan output berupa jawaban dari pertanyaan atau respon lainnya.
Jika dirinci, maka komponen-komponen AI tersebut akan terdiri dari: Data (sebagai sumber informasi utama), Algoritma (cara memproses data), Model (hasil dari pelatihan algoritma), Komputasi (daya pemrosesan), Jaringan Syaraf Tiruan (sistem yang meniru otak), Proses Bahasa Alami (pemahaman bahasa alami), Komputer Vision (pemahaman gambar), Robotik (AI dalam perangkat fisik), Pengambilan Keputusan (menentukan hasil berdasarkan data), dan Umpan Balik atau Feedback (perbaikan berkelanjutan). Model yang merupakan hasil pelatihan algoritma pada data digunakan untuk membuat prediksi atau mengambil keputusan berdasarkan input baru.
Dari uraian sebelumnya, jadi AI memerlukan sumber daya komputasi yang besar untuk memproses data dalam jumlah besar dan melatih model. Jaringan saraf tiruan adalah model matematika yang meniru cara kerja otak manusia. NLP atau Pembelajaran bahasa alami adalah cabang AI yang memungkinkan mesin untuk memahami, memproses, dan menghasilkan bahasa manusia, sehingga terjadi seperti Chatbot untuk percakapan dengan pengguna. Komputer vision memungkinkan komputer untuk “melihat” dan memahami gambar atau video. Robotik adalah Penggabungan AI dengan perangkat keras untuk menciptakan sistem otomatis. AI dapat membuat keputusan berdasarkan aturan logis yang telah ditetapkan atau berdasarkan hasil pembelajaran dari data. AI juga belajar dari hasil keputusannya dan dapat memperbaiki diri berdasarkan umpan balik.
Jadi AI bekerja dengan meniru cara berpikir manusia melalui algoritma dan model matematika. Teknologi ini menggunakan machine learning untuk mempelajari pola dari data, serta deep learning yang memungkinkan jaringan saraf tiruan menganalisis informasi secara kompleks. Dengan teknik ini, AI dapat mengenali gambar, memahami bahasa manusia, dan bahkan membuat keputusan secara mandiri. AI juga berkembang dalam bentuk reinforcement learning, yang memungkinkan sistem belajar dari pengalaman dan perbaikan terus-menerus.
Secara garis besarnya, ide awal penciptaan dan pengembangan AI antara lain terinspirasi dari pola berpikir manusia yang memanfaatkan jaringan syaraf dimana input (seperti suara, teks, gambar, fisik) yang diterima akan diolah oleh badan syaraf dan diteruskan ke susunan syaraf pusat (otak dan susmsusm tulang belakang), dan hasilnya akan diperolah output atau respon (berupa sensorik, motorik maupun kognitf). Secara kasar juga penciptaan awal pada AI berupa input (suara, teks, gambar, dlsb), kemudian mengalami proses atau “hidden” yang kompleks melalui perangkat seperti machine learning, deep learning, dlsb sehingga akan dihasilkan output sesuai yang diharapkan.
PERKEMBANGAN KECERDASAN BUATAN
AI Tradisional/AI Konvensional (AI Generasi Awal)
AI generasi pertama, yang juga dikenal sebagai AI simbolik, AI tradisional, atau AI konvensional, merujuk pada pendekatan awal dalam pengembangan kecerdasan buatan yang berkembang sejak pertengahan 1950-an hingga akhir 1980-an. Pendekatan ini berfokus pada representasi simbolik dan logika formal untuk meniru proses berpikir manusia. Jadi sebelum JST dan Deep Learning menjadi populer, AI sudah ada dalam bentuk lain, seperti Machine Learning tradisional dan sistem berbasis aturan. Pada saat itu AI yang berkembang adalah AI ala McCarthy (1950-an) yang menggunakan pendekatan simbolik/logika.
AI pada masa ini dicirikan dengan berdasarkan aturan logika, pengetahuan eksplisit, dan manipulasi simbol. Dalam hal ini komputer diberi aturan-aturan buatan manusia, bukan belajar sendiri dari data. Model AI ini cocok untuk tugas yang butuh pengetahuan eksplisit dan logika formal, seperti pemecahan teka-teki, pembuktian matematika, atau expert systems (sistem pakar). Dapat dikatakan bahwa AI ini tidak menggunakan JST seperti JST pada AI modern, kalaupun sudah ada JST awal yang masih sangat sederhana sehingga dapat dikatakan AI tanpa JST. AI yang digunakan berbasiskan aturan atau sistem pakar menggunakan aturan jika-maka (if-else) yang dikodekan oleh manusia. Namun kekurangannya adalah sulit menangani ketidakpastian atau konteks dunia nyata yang kompleks. Butuh banyak aturan manual sehingga tidak bisa untuk skala atau data besar atau tugas yang kompleks (seperti pengenalan wajah, dlsb).
AI generasi awal ini hanya bisa menggunakan algoritma klasik seperti Regresi Linier & Logistik yang digunakan untuk prediksi sederhana. Selain itu juga hanya bisa untuk pengenalan pola menggunakan Support Vector Machine (SVM), dan untuk klasterisasi atau klasifikasi data menggunakan K-Means & K-NN. Kelemahan AI tanpa JST ini antara lain kurang fleksibel untuk data kompleks seperti gambar dan bahasa alami, juga tidak bisa belajar sendiri sehingga penggunaannya sangat terbatas. Oleh karena itu AI model awal ini tidak dapat berkembang lebih lanjut.
Keterbatasan lain dari AI tanpa JST ini adalah kurang mampu menangani data yang kompleks karena Machine Learning klasik kesulitan memproses gambar, suara, dan bahasa alami, yang memerlukan rekayasa fitur manual. Selain itu AI ini juga kurang adaptif dan tidak bersifat general (generalisasi) dan model tanpa JST cenderung kaku dan perlu banyak campur tangan manusia untuk menyesuaikan dengan data baru. Jadi AI generasi awal banyak mengandalkan sistem berbasis aturan (expert systems) dan machine learning klasik. Dengan demikian, AI generasi pertama tanpa menggunakan JST, terutama melalui pendekatan simbolik, berkembang dari pertengahan 1950-an hingga akhir 1980-an. Setelah itu, fokus bergeser ke arah JST dan metode pembelajaran mesin dan pembelajaran mendalam yang lebih mampu menangani kompleksitas dan variasi data dunia nyata yang sering disebut sebagai AI Modern.
AI Modern
Pada tahun 1980-an-2010-an pengembangan AI menuju kepada AI modern berbasiskan pembelajaran mesin yang dilanjutkan dengan pembelajaran mendalam menggunakan JST, dan dihela oleh data/big data dengan tokoh utamanya antara lain John Hopfield dan Geoffrey Hinton. AI modern ini dicirikan dengan belajar dari data bukan aturan eksplisit, menggunakan statistik, algoritma pembelajaran seperti neural networks, decision trees, support vector machines, dll. Tidak menggunakan aturan seperti AI McCarthy tetapi cukup dengan memberikan data yang banyak dan diberikan contoh serta pelatihan. Kelebihan dari AI modern ini adalah sangat cocok untuk tugas seperti pengenalan wajah, suara, teks; untuk prediksi (cuaca, penyakit, tren); dan pengenalan bahasa manusia NLP (seperti ChatGPT). Kelebihan lainnya adalah bisa menangani data besar dan kompleks, dan juga dapat terus belajar sendiri dan meningkat seiring berjalannya waktu (reinforcing). Saat ini AI yang berkembang dan banyak digunakan adalah AI modern seperti ini.
Andalan utama dari AI modern adalah JST. Hampir semua sistem AI yang kompleks saat ini menggunakan jaringan saraf tiruan, terutama dalam Deep Learning. Bidang yang sangat tergantung dari JST pada AI modern adalah komputer vision (seperti pengenal objek pada mobil otonom, dan Face ID), NLP (seperti ChatGPT, Google translate), pengenalan suara (seperti google assistant), prediksi dan analisa data (seperti dalam keuangan, kesehatan dan riset ilmiah), rekomendasi konten (seperti Netflix, Youtub). JST memungkinkan AI untuk belajar dari data besar dan mengidentifikasi pola yang kompleks, yang sulit dilakukan dengan pendekatan algoritmik tradisional. Teknologi canggih seperti ChatGPT, Google Translate, dan kendaraan otonom menggunakan JST dalam bentuk Deep Learning, yaitu JST dengan banyak lapisan (Deep Neural Networks).
Jadi JST adalah teknologi inti di balik banyak inovasi AI modern. Hampir semua sistem AI yang kompleks saat ini menggunakan jaringan saraf tiruan sebagai fondasi utamanya, terutama dalam Deep Learning. Semakin besar dan dalam arsitektur JST, semakin canggih AI yang bisa dikembangkan. Seperti telah dikemukakan sebelumnya bahwa cikal bakal JST AI Modern ini berasal dari Jaringan Hopfield yang dikembangkan lebih lanjut oleh G. Hinton dan peneliti lainnya.
Namun hal ini baru menjadi populer pada awal dan pertengan tahun 2000-an dengan maraknya pengembangan pembelajaran mesin memanfaatkan struktur jaringan syaraf tiruan dan teori memori asosiatif dari Hopfield dan jaringan syaraf tiruan mesin Boltzmann dari Hinton dalam mengembangkan AI. Salah satu kinerja dari jaringan syaraf tiruan adalah ditentukan dari adanya pelatihan-pelatihan yang akan memperkuat/ekektivitas kerja neuron dari jaringan syaraf tiruan tersebut.
Mesin Boltzmann dapat belajar dari contoh yang diberikan pada pelatihan. Mesin Boltzmann yang terlatih dapat mengenali ciri-ciri yang sudah dikenal dalam informasi yang belum pernah dilihat sebelumnya. Mesin Boltzmann dapat mengenali contoh yang sama sekali baru jika contoh tersebut termasuk dalam kategori yang ditemukan dalam materi pelatihan, dan membedakannya dari materi yang tidak serupa. Inilah pengembangan jaringan syaraf tiruan yang dilakukan oleh G Hinton. Selanjutnya Hinton dan timnya pada tahun 2006 terus memperbaiki kinerja mesin Boltzmann dan mengembangkan Deep Belief Networks (DBN) dengan mengembangkan metode dengan pembelajaran mendalam (DL) untuk melakukan prapelatihan jaringan dengan serangkaian mesin Boltzmann dalam beberapa lapisan, satu di atas yang lain. Prapelatihan ini memberikan titik awal yang lebih baik bagi koneksi dalam jaringan, yang mengoptimalkan pelatihannya untuk mengenali elemen dalam gambar, sehingga Mesin Boltzmann dapat digunakan sebagai bagian dari jaringan yang lebih besar.
Temuan dan pengembangan JST yang berawal dari temuan Hopfield tahun 1982 dan dikembangkan Hinton pada tahun 1985 yang berlanjut sampai tahun 2000-an awal, menjadikan berkembangnya revolusi pembelajaran mesin dan pembelajaran mendalam yang dimulai sejak tahun 2010-an saampai tahun 2020-an dengan keterlibatan para peneliti lainnya seperti Yaan LeCun dan Yoshua Bengio. Hal ini dimungkinkan melalui akses ke sejumlah besar data yang dapat digunakan untuk melatih jaringan, dan melalui peningkatan daya komputasi yang sangat besar. Jaringan saraf tiruan saat ini sering kali sangat besar dan dibangun dari banyak lapisan yang disebut jaringan saraf dalam dan cara melatihnya disebut pembelajaran mendalam (DL).
PERJALANAN PANJANG MERAIH PENGHARGAAN NOBEL
Nobel Fisika tahun 2024
John J. Hopfield dan Geoffrey E. Hinton dianugerahi Hadiah Nobel Fisika 2024 atas kontribusi mereka dalam pengembangan jaringan saraf tiruan yang menjadi dasar bagi kecerdasan buatan (AI) modern. Penelitian mereka sejak tahun 1980-an telah membuka jalan bagi kemajuan signifikan dalam memajukan AI melalui penyempurnaan pengembangan jaringan syaraf tiruan melalui pembelajaran mesin.
Raihan Nobel fisika ini dipastikan setelah Panitia Penghargaan Nobel tahun 2024, pada tgl 8 Oktober 2024 mengumumkan bahwa tokoh pencipta dan pengembang AI yaitu John J. Hopfield dan G. E. Hinton dinobatkan sebagai pemenang hadiah Nobel di bidang Fisika untuk penemuan dan inovasi mendasar yang memungkinkan pembelajaran mesin dengan jaringan saraf buatan sebagai dasar pengembangan AI (4). Jika kita melihat teknologi AI secara keseluruhan memang disiplin ilmu yang dominan adalah ilmu komputer, matematika, sains data,teknik elektro dan statistika. Namun penghargaan Nobel di bidang fisika tahun 2024 yang diberikan kepada John Hopfield dan G. Hinton sebagai tokoh perintis AI adalah atas jasanya dalam pengembangan jaringan syaraf tiruan atau disebut juga Jaringan Hopfield yang merupakan dasar dari kemajuan teknologi AI saat ini. John Hopfield, pada tahun 1982 memperkenalkan Jaringan Hopfield, sebuah model jaringan saraf tiruan yang terinspirasi oleh sistem spin dalam fisika (7,12).
Dalam model ini, neuron-neuron berinteraksi dengan cara yang analog dengan partikel dalam sistem fisika, di mana sistem cenderung menuju keadaan energi minimum. Hal ini memungkinkan jaringan untuk menyimpan dan mengingat pola melalui mekanisme serupa dengan sistem fisik yang mencari keseimbangan energi terendah. Dengan menggunakan metode yang menjadi dasar bagi pembelajaran mesin (Machine Learning) yang canggih, John Hopfield berhasil menciptakan struktur yang dapat menyimpan dan merekonstruksi informasi yang merupakan dasar dari AI.
Sedangkan Geoffrey Hinton, pada tahun 1985, mengembangkan lebih lanjut jaringan Hopfield dengan menciptakan Mesin Boltzmann, sebuah jaringan saraf yang didasarkan pada prinsip-prinsip fisika statistik yang diperkenalkan oleh Ludwig Boltzmann. Mesin Boltzmann memanfaatkan konsep distribusi energi dalam sistem partikel untuk memungkinkan jaringan belajar mengenali pola dalam data. Ini merupakan cikal bakal Geoffrey Hinton menemukan metode yang dapat secara independen menemukan properti dalam data yang sangat penting bagi jaringan saraf buatan besar yang menjadi dasar pengembangan pembelajaran mendalam (Deep Learning) yang sekarang digunakan dalam AI modern (8,9,30,51).
Penerapan konsep fisika dalam pengembangan model ini menunjukkan bagaimana prinsip-prinsip fisika dapat digunakan untuk memahami dan memodelkan proses komputasi yang kompleks. Royal Swedish Academy of Sciences mengakui bahwa pendekatan berbasis fisika yang dilakukan oleh Hopfield dan Hinton telah membentuk dasar bagi banyak aplikasi AI modern, termasuk pengenalan pola, pemrosesan bahasa alami, dan visi komputer (4). Dengan demikian, meskipun AI adalah bidang interdisipliner yang mencakup ilmu komputer, matematika, teknik elektro, dan kognitif, kontribusi Hopfield dan Hinton menunjukkan bahwa konsep dan metode dari fisika fundamental memainkan peran penting dalam evolusi dan pemahaman jaringan saraf tiruan. Jadi penilaiannya difokuskan pada penemuan konsep jaringan syaraf tiruan yang menjadi inti dalam pengembangan AI. Inilah alasan utama mengapa penghargaan Nobel mereka diberikan dalam kategori Fisika (4).
Temuan Hopfield dan Hinton dalam menciptakan JST ini memperlihatkan bahwa fisika telah memberikan kontribusi berupa alat untuk pengembangan pembelajaran mesin, sebagai bidang penelitian, juga mendapatkan manfaat dari jaringan saraf tiruan. Pembelajaran mesin sebenarnya telah lama digunakan di berbagai bidang yang mungkin sudah kita kenal dari Penghargaan Nobel Fisika sebelumnya. Pembelajaran mesin juga banyak digunakan di bidang ekonomi, dan bidang Neurosains, selain fisika.
Mengapa penghargaan Nobel Fisika baru diperoleh Hopfield dan Hinton pada tahun 2024? Hal ini tidak terlepas dari peran AI yang terus berkembang pesat dan memiliki peran besar dalam sains, teknologi, dan masyarakat, menjadikannya salah satu bidang paling inovatif di era modern. Padahal temuan Hopfield tentang jaringan syaraf tiruan yang berbasiskan ilmu fisika terjadi pada tahun 1982, dan temuan G Hinton yang juga terkait jaringan syaraf tiruan sebagai pengembangan dari temuan Hopfield terjadi pada tahun 1985. Mungkin komite Nobel baru menyadari bahwa manfaat AI saat ini sangat besar bagi pengembangan inovasi, ilmu pengetahuan dan teknologi serta kehidupan masyarakat, sehingga karya-karya ilmiah yang mendasari AI setelah ditelusuri dan dievaluasi mengarah kepada peranan dari penemuan konsep jaringan syaraf tiruan yang di pelopori oleh John Hopfield dan Geoffrey Hinton, walaupun konsep JST pertama telah dimunculkan oleh Arthur Samuael pada 1952 dan McMulloch-Pitts pada tahun 1958, serta Frank Rosenblatt (1958) dalam bentuk JST yang sederhana (13,14,16,17,41).
Penghargaan Nobel yang diberikan Komite Nobel pada tahun 2024 ini, menunjukkan suatu perjalanan panjang bagi Hopfield maupun Hinton dalam meraih Nobel Fisika yang memakan waktu 42 tahun untuk J. Hopfield (dari tahun 1982-2024) sejak diketemukannya Jaringan Hopfield pada tahun 1982. Sedangkan untuk G. Hinton peroleh anugerah Nobel Fisika ini memerlukan waktu 39 tahun (1985-2024) sejak JST Mesin Boltzmann diciptakan Hinton tahun 1985. Komite Nobel menganalisis manfaat temuan mereka berdua dalam AI yang telah memberikan manfaat sangat nyata dalam berbagai inovasi dan pengembangan sains serta kehidupan masyarakat.
John Joseph Hopfield
Biodata data John Hopfield dapat dilihat pada Wikipedia, dimana John J. Hopfield yang lahir pada 15 Juli 1933 di Chicago, Illinois AS adalah seorang fisikawan, ahli biologi molekuler, dan ilmuwan saraf asal Amerika Serikat yang dikenal luas atas kontribusinya di bidang teori jaringan saraf tiruan dan fisika biologis. Ia tumbuh dalam lingkungan akademis, karena kedua orang tuanya adalah ilmuwan. Hopfield memperoleh gelar sarjana fisika dari Swarthmore College pada tahun 1954, gelar Master Fisika dari Universitas Cornell, dan gelar doktornya ia peroleh dari Universitas Harvard pada tahun 1958.
Karier akademik dan penelitiannya dilakukan pada Bell Laboratories, California Institute of Technology (Caltech), dan Princeton University. Di Caltech, Hopfield mendalami fisika teoritis dan biologi molekuler. Penelitiannya di Princeton University juga melibatkan pengembangan teori jaringan saraf tiruan, yang dikenal sebagai “jaringan Hopfield” yang diperkenalkannya pada tahun 1982. Model jaringan syaraf tiruan ini digunakan untuk menyimpan dan mengambil informasi melalui proses analogi dengan memori asosiatif.
Konsep Jaringan Syaraf Tiruan (jaringan Hopfield) ini menjadi dasar penting dalam pengembangan kecerdasan buatan dan pembelajaran mesin. Dalam konsep ini, sebuah bentuk memori asosiatif yang mampu menyimpan dan merekonstruksi gambar atau pola data lainnya. Jaringan ini bekerja dengan prinsip menurunkan “energi” sistem untuk menemukan representasi data yang paling sesuai, mirip dengan cara kerja sistem fisika dalam mencari keadaan energi terendah. Pendekatan ini memungkinkan jaringan untuk mengenali dan memperbaiki data yang terdistorsi atau tidak lengkap.
Temuan penting Hopfield lainnya adalah di bidang Fisika Biologis dan juga berkontribusi dalam bidang Neurosains, di mana ia mempelajari hubungan antara sistem saraf dan teori matematika yang memberikan wawasan baru tentang cara otak memproses informasi. Ia menggunakan pendekatan interdisipliner untuk memahami fungsi otak.
Atas prestasi dan kontribusinya tersebut, Hopfield telah menerima berbagai penghargaan bergengsi antara lain: a) dari International Centre for Theoretical Physics, b) dari American Physical Society, c) dari National Academy of Sciences Membership, dan d) Pemenang Nobel Fisika tahun 2024 bersama G. E. Hinton. Hopfield telah meninggalkan jejak yang mendalam di dunia ilmu pengetahuan melalui pendekatannya yang inovatif dan kolaboratif, menjadikan dirinya sebagai salah satu ilmuwan paling berpengaruh di abad ke-20 dan awal abad ke-21 (4).
Geoffrey E. Hinton
Biodata G. E. Hinton juga dapat dilihat pada Wikipedia, dimana ia lahir pada 6 Desember 1947 di Wembledon, London UK, berasal dari keluarga intelektual terkemuka dimana kakek buyutnya George Boole (pencetus logika Boolean). Ia mendapatkan gelar PhD pada tahun 1978 dari Universitas Edinburgh dengan penelitian tentang representasi dalam jaringan syaraf. Hinton adalah seorang ilmuwan komputer dan psikolog kognitif asal Inggris-Kanada yang dikenal sebagai “Bapak Deep Learning”. Ia memainkan peran penting dalam pengembangan jaringan saraf tiruan dan telah memberikan kontribusi besar dalam bidang kecerdasan buatan (AI).
Setelah menyelesaikan pendidikan doktornya, Hinton bekerja di berbagai institusi penelitian dan universitas terkemuka, antara lain; University College London (UCL), University of Toronto, dan Google Brain. Hinton mulai meneliti jaringan saraf tiruan ketika hal ini belum populer. Bersama David Rumelhart dan Ronald J. Williams, ia mempopulerkan algoritma backpropagation pada tahun 1980-an (51). Algoritma ini menjadi metode kunci dalam melatih jaringan saraf tiruan. Selanjutnya Pada tahun 2006, Hinton dan rekannya, Simon Osindero dan Yee-Whye Teh, memperkenalkan metode pelatihan jaringan saraf tiruan yang lebih dalam, menggunakan Restricted Boltzmann Machines (RBMs) (29,31). Penelitian ini menandai kebangkitan kembali jaringan saraf dan awal era pembelajaran mendalam (Deep learning).
Temuan penting dari Hinton adalah: a) Pengembangan konsep representasi vektor untuk kata, yang menjadi fondasi model pemrosesan bahasa alami modern; b) penggunaan Convolutional Neural Networks (CNNs) yang dapat membantu mengubah pengenalan gambar menjadi salah satu aplikasi AI yang paling sukses; c) Pengenalan teknik “dropout” untuk mengurangi overfitting dalam pelatihan jaringan saraf; dan d) Pada 2013, Hinton bergabung dengan Google untuk mengembangkan aplikasi jaringan saraf skala besar, seperti dalam pencarian suara dan pengenalan gambar.
Geoffrey Hinton telah menerima banyak penghargaan bergengsi atas kontribusinya di bidang kecerdasan buatan, antara lain: a) Turing Award (2018), bersama Yoshua Bengio dan Yann LeCun, yang sering disebut sebagai “Hadiah Nobel dalam Ilmu Komputer.”; b) Rumelhart Prize (2001) atas kontribusinya dalam jaringan saraf dan psikologi kognitif; c) Companion of the Order of Canada (CC), salah satu penghargaan tertinggi di Kanada; dan d) Penghargaan Nobel Fisika tahun 2024 bersama John J Hopfield.
Hinton terkenal sebagai pemikir visioner yang sering memprediksi arah masa depan AI. Ia telah berbicara tentang potensi manfaat besar AI, namun juga memperingatkan risiko dan etika yang terkait dengan teknologi ini. Hinton kini menjabat sebagai profesor emeritus di University of Toronto dan tetap aktif dalam penelitian, meskipun ia meninggalkan perannya di Google pada tahun 2023 untuk lebih fokus pada isu-isu etika AI.
PENUTUP
Dari uraian yang telah dikemukakan ini terlihat bahwa AI tidak hanya sekedar populer secara global tetapi memang memiliki dampak yang sangat signifikan dan luas dalam kehidupan masa kini dan masa depan karena pengaruh dan dampaknya akan terus berlangsung lama. Demikian juga dalam kehidupan di dunia ilmiah, AI akan terus berperan untuk memberikan kemudahan-kemudahan dalam mendukung pengembangan kemajuan dibidang riset dan inovasi. Oleh karena itu masyarakat harus ikut ambil bagian dalam mengikuti perkembangan AI dan mempelajarinya agar tidak terjadi gap yang jauh yang dapat mempersempit dirinya dalam mendapatkan lapangan pekerjaan.
Kita harus memanfaatkan kemjuan AI dalam berbagai inovasinya untuk mengembangkan dan menciptakan lapangan pekerjaan baru berbasiskan kemajuan AI. Kita harus kreatif untuk menciptakan atau memanfaatkan inovasi ini dengan membuka lapangan kerja baru. Misalnya memanfaatkan dunia hiburan dengan membuat berbagai cerita atau film atau konten animasi berbasiskan program GAN Generative Adversary Networks.
Dibidang riset, inovasi dan Pengembangan IPTEK melalui pengembangan model berbasiskan AI seperti AlphaFold untuk memprediksi struktur, bentuk tiga dimensi dan fungsi protein memberikan kontribusi yang sangat signifikan dalam kemajuan IPTEK, antara lain untuk pengembangan obat/ farmasi, penelitian vaksin, diagnosa penyakit, pengobatan penyakit, bidang kimia, dlsb. Demikian juga dengan pengembangan AlphaFold2 dan AlphaFold3 serta RoseTTAFold akan memberikan dampak yang signifikan antara lain untuk dibidang Kedokteran dan Kesehatan, bioteknologi, dan bioinformatika.
Dibidang pendidikan, Perguruan Tinggi juga harus beradaptasi dengan membuka atau mengembangkan program studi yang terkait dengan perkembangan AI sehingga generasi muda atau mahasiswa dapat mempersiapkan dirinya untuk masa depannya kelak karena dapat berkompetisi dalam memperoleh kesempatan kerja di era AI yang akan berlangsung lama. Dibidang riset juga para peneliti harus dapt mengikuti perkembangan teknologi AI walaupun diluar bidang keilmuan utamanya karena taknologi ini diperlukan dalam rangka pengembangan kariernya baik dibidang ekonomi, sosial, teknik maupun kedokteran. Hal ini terkait dengan keharusannya membuat riset, menggunakan metodologi yang mungkin terkait AI dan juga dalam teknis penulisan ilmiah yang pasti terkait dengan teknologi AI.
Penghargaan Nobel Fisika tahun 2024 yang diraih John Hopfield dan Geoffrey Hinton berkat peranan mereka dalam mengembangkan JST berbasiskan teori Fisika, sangat menarik untuk diulas. Pertama, bahwa JST awal diperkenalkan oleh McCulloch-Pitts pada 1943 yang belum ada konsep belajarnya, kemudian Frank Rosenblatt pada tahun 1958 yang disebut JST Perceptron yang sudah ada konsep belajar yang sederhana dan hanya dapat mengenali pola sederhana. Selanjutnya terjadi stagnan atau kevakuman tidak ada kemajuan sampai tahun 1979-an. Kedua, adanya peranan Hopfield dalam merintis kembali penelitian JST pada 1982 dan menghasilkan Jaringan Hopfield yang jauh lebih baik, dan memicu semangat peneliti lain untuk mengikutinya, antara lain G. Hinton, dkk sehingga pada tahun 1985 berhasil menyempurnakan JST temuan Hopfield, dengan menciptakan Mesin Boltzmann. Ketiga, selanjutnya sangat banyak penelitian JST dan penelitian AI dilakukan oleh peneliti dari kelompok Hopfield maupun kelompok Hinton serta peneliti-peneliti lain diluar kelompok tersebut sehingga setelah tahun 2010-an sampai 2024 AI sangat populer dikenal dengan istilah AI Modern. Keempat, John Hopfield dan G Hinton terpilih sebagai pemenang Nobel Fisika tahun 2024 berkat ketekunan dan peran mereka, mungkin jika tidak ada temuan Hopfield ditahun 1982 tentang JST/Jaringan Hopfield dan Machine Learningnya perkembangan AI tidak secepat seperti saat ini. Demikian juga jika tidak ada Hinton perkembangan AI modern dengan JST dan Deep Learningnya juga mungkin AI belum secanggih ini. Kelima, sebenarnya diluar mereka berdua banyak peneliti JST maupun AI yang berkontri besar terhadap kemajuan AI Modern saat ini. Jadi estafet keberlanjutan penelitian terhadap suatu topik harus ada jika hasil-hasil sebelumnya diyakini memiliki prospek, dan harus diikuti oleh estafet regenerasi penelitinya, pembiayaannya, kerjasama lintas institusi dan lintas generasi serta lintas disiplin ilmu.
SUMBER BACAAN
- https://binus.ac.id/bandung/2023/11/13-kecerdasan-buatan-yang-kita-gunakan-sehari-hari/ diakses tgl 14 April 2025.
- Nussinov R, Zhang M, Liu Y, Jang H: Alphafold, artificial intelligence (AI), and allostery. J Phys Chem B. 2022, 126:6372-83. 10.1021/acs.jpcb.2c04346
- Borkakoti N, Thornton JM: AlphaFold2 protein structure prediction: implications for drug discovery . Curr Opin Struct Biol. 2023, 78:102526. 10.1016/j.sbi.2022.102526
- MLA style: Popular information. NobelPrize.org. Nobel Prize Outreach 2025. Sun. 13 Apr 2025. <https://www.nobelprize.org/prizes/physics/2024/popular-information/>
- John McCarthy Bapak Kecerdasan Buatan (AI). Darmouth Workshops.https://en.wikipedia.org/wiki/Dartmouth_workshop?utm_source=chatgpt.com diakses tgl 12 April 2025.
- Ahmad Zaenudin. Mengenal Bapak Kecerdasan Buatan John McCarthy. Reporter Ahmad Zaenudin. https://tirto.id/mengenal-bapak-kecerdasan-buatan-john-mccarthy-cJVb#google_vignette diakses tgl 12 April 2025.
- Hopfield, J.J. 1982. Neural networks and physical systems with emergent collective computational abilities. Proceedings of the National Academy of Sciences (PNAS), Vol. 79, No. 8, 1982, hlm. 2554–2558.
- Ackley, D.H., GE Hinton, TJ Sejnowski. 1985. A learning algorithm for Boltzmann machines. Cognitive science 9 (1), 147-169 (1985).
- Hinton, G.E. . 2007. Boltzmann machine. Scholarpedia 2 (5), 1668 (2007).
- Salakhutdinov, , A Mnih, G Hinton. 2007. Restricted Boltzmann machines for collaborative filtering. Proceedings of the 24th international conference on Machine learning, 791-798 (2007).
- LeCun, Y., D Touresky, G Hinton, T Sejnowski. 1988. A theoretical framework for back-propagation. Proceedings of the 1988 connectionist models summer school 1, 21-28 (1988).
- Hopfield, J.J. 2007. Hopfield network. Scholarpedia 2 (5), 1977.
- Pitts, W.,and W. S. McCulloch. 1947. “How we know universals,” Bull. Math. Biophys., vol. 9, pp. 127-147; 1947.
- McCulloch, W.S. 1954. “Through the den of the metaphysician,’ Brit. J. Phil. Science, vol. 5, pp. 18-34; 1954.
- Rosenblatt, F. 1957. The Perceptron — A Perceiving and Recognizing Automaton. Tech. Rep. 85-460-1 (Cornell Aeronautical Laboratory, 1957).
- Rosenblatt, F. 1958. “The Perceptron,” Cornell Aeronautical Lab., Inc., Ithaca, N. Y., Rept. No. VG-1196-G-1; January, 1958.
- Rosenblatt, F. 1958. The perceptron: a probabilistic model for information storage and organization in the brain. Psychol Rev. 1958 Nov;65(6):386-408. doi: 10.1037/h0042519. PMID: 13602029 DOI: 10.1037/h0042519.
- Perceptron. https://en.wikipedia.org/wiki/Perceptron, diakses tgl 12 April 2025.
- https://medium.com/%40lucaspereira0612/solving-xor-with-a-single-perceptron-34539f395182 diakses tgl 9 April 2025.
- Minsky, M., and Seymour Papert. 1969. Perceptron. MIT Press. 1969.
- Fisher, L.M. 2016. In Memoriam. Marvin Minsky: 1927-2016. Communication of CAM Vol. 59. No.4: 22-24.
- Marvin Minsky. http://134.208.26.59/math/AI/Marvin_Minsky.pdf diakses tgl 13 April 2025.
- Hopfield, J.J. 1984. Neurons with graded response have collective computational properties like those of two-state neurons. Proceedings of the national academy of sciences 81 (10), 3088-3092.
- Hopfield, J.J., and D.W. Tank. 1985. “Neural” computation of decisions in optimization problems. Biological cybernetics 52 (3), 141-152 (1985).
- Hopfield, J.J. 1988. Artificial neural networks. IEEE Circuits and Devices Magazine 4 (5), 3-10 (1988).
- Krotov, D., and J.J. Hopfield. 2016. Dense associative memory for pattern recognition. Advances in neural information processing systems 29 (2016).
- Hinton, G.E. 1992. How neural networks learn from experience. Scientific American 267 (3), 145-151 (1992).
- Hinton, G. E. 2005. What kind of graphical model is the brain? In Proc. 19th International Joint Conference on Artificial intelligence 1765–1775 (2005).
- Hinton, G. , S. Osindero, and Y.-W. Teh. 2006. A Fast Learning Algorithm for Deep Belief Nets. Neural Computation 18, 1527–1554 (2006).
- Hinton, G.E. 2009. Deep belief networks. Scholarpedia 4 (5), 5947 (2009).
- Hinton, G. E. 2010. A practical guide to training restricted Boltzmann machines.
- LeCun, Y. et al. 1990. Handwritten digit recognition with a back-propagation network. In Proc. Advances in Neural Information Processing Systems 396–404 (1990).
- Le Cun, Y., Yoshua Bengio, Geoffrey Hinton. 2015. Deep Learning. Nature. 2015 May 28;521(7553):436-44. doi: 10.1038/nature14539. Affiliations Expand. PMID: 26017442 DOI: 10.1038/nature14539.
- Bengio, Y., Y Lecun, G Hinton. 2021. Deep Learning for AI. Communications of the ACM 64 (7), 58-65 (2021).
- Bengio, Y., Ducharme, R. & Vincent, P. 2001. A neural probabilistic language model. In Proc. Advances in Neural Information Processing Systems 13 932–938 (2001).
- Bengio, Y., Thibodeau-Laufer, E., Alain, G. & Yosinski, J. 2014. Deep generative stochastic networks trainable by backprop. In Proc. 31st International Conference on Machine Learning 226–234 (2014).
- Bengio, Y., G.E. Hinton, A Yao, D Song, P Abbeel, T Darrell, YN Harari, et all. 2024. Managing extreme AI risks amid rapid progress. Science 384 (6698), 842-845 (2024).
- Hochreiter, S. & Schmidhuber, J. 1997. Long short-term memory. Neural Comput. 9, 1735–1780 (1997).
- Turing, A. M. 1950. Computing machinery and intelligence, Mind 21 (1950). In McCarthy, 2007.
- Turing, A.M. 1947. Lecture to the London mathematical society, in: The Collected Works of A.M. Turing, vol. Mechanical Intelligence, NorthHolland, 1947. This was apparently the first public introduction of AI. In McCarthy, 2007.
- Samuel, A.L. 1959. “Some studies in machine learning using the game of checkers, ” IBMJ. Res. &Dev.,vol. 3,pp. 211-219;July, 1959.
- McCarthy J (1959) Programs with common sense. Mechanization of thought processes, vol. I. Her Majesty’s Stationery office, London. 4, http://www-formal.stanford.edu/jmc/mcc59.html.
- McCarthy J (1960) Recursive functions of symbolic expressions and their computation by machine, part I. Commun ACM 3(4):184–195.
- McCarthy J (1962) Computer programs for checking mathematical proofs. In: Proceedings of Symposia in pure mathematics, vol 5. American Mathematical Society, New York, pp 219–227.
- McCarthy, John (1963a). A basis for a mathematical theory of computation. In Computer Programming and Formal Systems, (P. Braffort and D. Hirschberg, eds.), pp. 33-70. North-Holland Pub. Amsterdam.
- McCarthy, John (1963b). Towards a mathematical science of computation. Proceedings of IFIP Congress, Munich, 1962. pp. 21-28. North-Holland Publ., Amsterdam.
- McCarthy, J. 2007. From here to Human-Level AI. Artificial Intelligence 171 (2007) 1174–1182.
- McCarthy, J. 1979. Ascribing Mental Qualities to Machine. Computer Science Department Stanford University Stanford, CA 94305 [email protected] http://www-formal.stanford.edu/jmc/
- Newell, A.. 1989. Un$ied Theories of Cognition. Harvard University Press, Cambridge, Massachusetts. 1989.
- Langley, P., and H.A. Simon. 1995. Applications of Machine Learning and Rule Induction. Communication of ACM. November 1995. Vo. 38. No. 11: 54-64.
- Rumelhart, D.E., GE Hinton, RJ Williams. 1986. Learning representations by back-propagating errors. Nature 323 (6088), 533-536 (1986).
- Patel, A., and R.K. Rama. 2020. An Overviews of Boltzmann Machine and Its Special Class. Technical Report, 19 December 2020. at: https://www.researchgate.net/publication/347491497 .
Interesting read! Do you have any tips for beginners on this?
Well-written and informative. I appreciate the depth of your analysis.
Very informative post, thank you for sharing!
[url=”http://www.voto-project.it/memberlist.php?mode=viewprofile&u=121″]I[/url] am glad see so excelent post!
Отзывы о pinco говорят сами за себя — достойный сервис. Сайт пинко казино стабильно работает даже при блокировках. Pinco — это лицензированное казино с множеством игр. В казино pinco часто проходят выгодные турниры. Пинко казино — это азарт, драйв и реальные выигрыши. Pinco — надёжный партнёр в мире онлайн-гейминга. Pinco предлагает ставки на спорт с высоким коэффициентом. Pinco — лучший выбор для азартных игр в Кыргызстане. Pinco поддерживает киргизский и русский язык [url=https://pinco-kyrgyzstan.website.yandexcloud.net/]pinco скачать[/url].
UsaIndiaPharm: india online pharmacy – best india pharmacy
Such a useful guide. Bookmarking this for later!
Great perspective. I hadn’t thought about it that way!
Пока банки спят, МФО одобряют. [url=https://mikro-zaim-online.ru/zaim-bez-otkaza-na-kartu/]mikro-zaim-online.ru[/url] — это ваш шанс получить до 30 000 рублей круглосуточно, без лишних условий. Подайте заявку онлайн, укажите паспорт и карту — и деньги уже на счету. Быстро, честно, без отказов. Отличный способ решить вопрос «здесь и сейчас».
Юридическая чистота — основа доверия. Все МФО работают строго в рамках Федерального закона №151-ФЗ, регулирующего микрофинансовую сферу. Займы выдаются быстро, без лишних проверок, а перевод денег — моментальный. Вы оформляете займ официально, с договором и гарантией защиты ваших интересов.
нажмите здесь [url=https://gcup.ru]Создание игр[/url]
Thanks for breaking this down so simply!
Your content never disappoints. Keep it up!
Short but packed with value. Love it!
Ищешь свежие ссылки на Кракен — популярный русский даркнет-маркетплейс? Заходи на мой форум: https://krak-ssylka-na-sajt.biz/ У нас ты найдёшь множество адреса для доступа на Kraken.
Кракен — это известный маркетплейс, где доступны любые предметы. Для того чтобы зайти на Kraken, нужны актуальные ссылки. Через этом форуме ежедневно публикуются обновлённые ссылки Кракена, чтобы ты смог зайти на маркетплейс быстро.
Не не трать время на нахождение адресов в сомнительных ресурсах! Множество необходимое сразу собрано на нашем форуме. Переходи и отыщи актуальные зеркала на Кракен в 2025 году!
Can’t wait to read more posts like this. Subscribed!
pinup az?rbaycan [url=pinup-azerbaycan5.com]pinup az?rbaycan[/url] .
Great post! I really enjoyed reading this and learned a lot. Thanks for sharing!
This is exactly what I was looking for—thanks for the helpful tips!
Phim sex clip sex Việt Nam
Were you aware that 1 in 3 patients commit preventable drug mistakes stemming from lack of knowledge?
Your wellbeing requires constant attention. Each pharmaceutical choice you make directly impacts your long-term wellbeing. Being informed about your prescriptions is absolutely essential for disease prevention.
Your health depends on more than swallowing medications. Each drug interacts with your physiology in specific ways.
Never ignore these essential facts:
1. Taking incompatible prescriptions can cause fatal reactions
2. Even common supplements have potent side effects
3. Self-adjusting treatment causes complications
For your safety, always:
✓ Check compatibility using official tools
✓ Read instructions in detail when starting new prescriptions
✓ Consult your doctor about correct dosage
___________________________________
For professional drug information, visit:
https://www.pinterest.com/pin/879609370963914453/
Very well written. Looking forward to more posts like this!
Did you know that over 60% of patients experience serious pharmaceutical mishaps stemming from lack of knowledge?
Your wellbeing is your most valuable asset. Each pharmaceutical choice you make plays crucial role in your body’s functionality. Being informed about your prescriptions is absolutely essential for disease prevention.
Your health isn’t just about following prescriptions. Each drug affects your biological systems in unique ways.
Consider these life-saving facts:
1. Combining medications can cause health emergencies
2. Seemingly harmless supplements have serious risks
3. Self-adjusting treatment undermines therapy
To avoid risks, always:
✓ Verify interactions via medical databases
✓ Study labels thoroughly before taking new prescriptions
✓ Speak with specialists about proper usage
___________________________________
For verified pharmaceutical advice, visit:
https://www.provenexpert.com/en-us/nizagara-1002/
Оформить [url=https://alcodostavkashop88.ru/]доставка алкоголя москва 24[/url] можно на alcodostavkashop88.ru за пару минут. Это удобное решение для тех, кто ценит своё время. Гарантирован оригинальный алкоголь, круглосуточная служба доставки и высокие стандарты качества обслуживания.
[url=https://olympecasino.pro/#]olympe[/url] olympe casino
Interesting perspective! It gave me a new way of thinking about this topic.
Thanks for the valuable information. It was easy to understand and super useful.
[url=https://olympecasino.pro/#]olympe casino cresus[/url] olympe casino
Выбирайте каркасный дом с эргономичным расположением комнат
каркасные дома в спб [url=http://www.karkasnye-doma-spb-pod-kluch0.ru]http://www.karkasnye-doma-spb-pod-kluch0.ru[/url] .
I love how you explained this so clearly. Subscribed for more!
olympe casino avis: olympe – olympe
The digital drugstore offers a wide range of medications at affordable prices.
Shoppers will encounter all types of medicines for all health requirements.
We work hard to offer trusted brands at a reasonable cost.
Speedy and secure shipping guarantees that your medication is delivered promptly.
Experience the convenience of shopping online with us.
zenegra 100 mg side effects
This online pharmacy provides a wide range of medications at affordable prices.
Customers can discover all types of medicines for all health requirements.
Our goal is to keep safe and effective medications at a reasonable cost.
Fast and reliable shipping guarantees that your purchase is delivered promptly.
Experience the convenience of shopping online through our service.
does priligy work reddit
Планируете отправить груз по России? Обратитесь к нам – [url=https://zavezem-gruz.ru]компания Vozim[/url] — вашего надежного перевозчика с современным автопарком. Мы гарантируем точную доставку в любую точку страны, контролируя каждый этап транспортировки. Наши клиенты ценят гибкие тарифы и оперативность исполнения заказов.
This post really resonated with me. Appreciate your honesty and insights.