YOGYAKARTA, JOGPAPER.NET — Mahasiswa baru Program Studi (Prodi) Magister Informatika, Fakultas Teknologi Industri, Universitas Islam Indonesia (FTI UII) Yogyakarta diperkenalkan Large Language Models (LLMs). Pengenalan LLMs dikemas dalam Kuliah Umum yang disampaikan Ahmad Fathan Hidayatullah, ST, MCs, PhD, Dosen Jurusan Informatika FTI UII, Jumat (16/5/2025).
Ahmad Fathan menjelaskan dalam kurun lima tahun belakangan, Large Language Models (LLMs) telah menjadi sorotan utama dalam perkembangan teknologi kecerdasan buatan. Keberadaan LLMs mendorong perubahan besar dalam cara manusia berinteraksi dengan mesin.
Interaksi manusia dengan mesin, kata Ahmad Fathan, kini tidak lagi terbatas pada perintah sederhana. Tetapi interaksi tersebut sudah menyerupai percakapan layaknya komunikasi sehari-hari. “LLMs merupakan salah satu inovasi paling signifikan dalam pengembangan AI (Artificial Intelligence), khususnya dalam bidang natural language processing (NLP). Model ini memungkinkan mesin untuk memahami, mengolah, dan menghasilkan bahasa manusia dengan tingkat kecanggihan yang belum pernah terjadi sebelumnya,” kata Ahmad Fathan.
Lebih lanjut, Ahmad Fathan menjelaskan Large Language Models (LLMs) merupakan suatu model bahasa yang digunakan sebagai foundation models. LLMs dirancang agar dapat memahami dan menghasilkan bahasa manusia secara alami. “Model ini dilatih menggunakan kumpulan data teks dalam skala besar. Data teks yang digunakan berasal dari miliaran kata yang diperoleh dari berbagai sumber seperti artikel berita, buku, forum daring, dokumen akademik, dan percakapan sehari-hari,” jelasnya.
LLMs, kata Ahmad Fathan, berbeda dengan pendekatan tradisional yang membutuhkan data berlabel. LLMs menggunakan metode self-supervised learning, yaitu teknik pelatihan di mana model belajar secara mandiri mengenali pola bahasa tanpa perlu pelabelan atau anotasi secara manual. “Proses pelatihan ini memungkinkan model memahami struktur, makna, dan konteks bahasa secara menyeluruh,” katanya.
Ahmad Fathan menambahkan istilah ‘large’ dalam LLMs tidak hanya merujuk pada ukuran model. Tetapi kata ‘large’ juga mencerminkan kompleksitas dan cakupan data yang menjadi fondasi kemampuannya. Istilah ‘large’ dalam LLMs merujuk pada dua aspek utama, yaitu jumlah parameter yang sangat besar dan volume data pelatihan yang masif.
Parameter merupakan komponen internal yang dipelajari model selama proses pelatihan untuk mengenali pola-pola dalam bahasa. Semakin besar jumlah parameter, semakin besar pula kapasitas model dalam menyimpan informasi dan menghasilkan keluaran yang kontekstual serta akurat.
Selain itu, kata ‘large’ juga menggambarkan skala data pelatihan yang digunakan. LLMs dilatih menggunakan miliaran hingga triliunan token yang dikumpulkan dari berbagai sumber, seperti artikel berita, buku, forum daring, hingga kode pemrograman. “Pelatihan dengan volume data sebesar ini memungkinkan model memahami ragam bahasa, gaya penulisan, dan konteks yang luas dalam komunikasi manusia,” tambahnya.
Menurut Ahmad Fathan, kemampuan LLMs tidak hanya terbatas pada pemrosesan teks, tetapi juga mencakup berbagai jenis data dan tugas lanjutan. Sebagai foundation models, LLMs dilatih menggunakan beragam sumber data seperti teks, gambar, suara, data terstruktur, hingga sinyal 3D.
Setelah melalui proses pelatihan, kata Ahmad Fathan, model ini dapat disesuaikan (adapted) untuk menyelesaikan berbagai tugas seperti menjawab pertanyaan (question answering), analisis sentimen, ekstraksi informasi, penjelasan gambar (image captioning), pengenalan objek, hingga mengikuti instruksi. “Hal yang membuat LLMs istimewa adalah fleksibilitasnya dalam menangani beragam kebutuhan NLP hanya dengan satu model,” kata Ahmad Fathan.
Saat ini, kata Ahmad Fathan, satu sistem berbasis LLMs dapat digunakan untuk menerjemahkan teks, merangkum dokumen, menghasilkan tulisan otomatis, dan berbagai tugas lainnya. Karena kemampuannya yang serbaguna dan mudah diadaptasi, LLMs disebut sebagai general-purpose models yang dapat diterapkan di berbagai domain, mulai dari pendidikan, bisnis, layanan publik, hingga riset ilmiah.
Kata Ahmad Fathan, perkembangan LLMs berlangsung sangat pesat dalam beberapa tahun terakhir. Hal ini tidak terlepas dari kemajuan teknologi model arsitektur deep learning yang terus berkembang. Selain itu, perkembangan LLMs juga didukung oleh kemunculan konsep attention mechanism yang diadopsi dalam model Transformer serta peningkatan daya komputasi yang memungkinkan pelatihan model dalam skala yang jauh lebih besar.
Ketersediaan data dalam jumlah besar dan dukungan dari komunitas open-source turut mempercepat adopsi dan inovasi dalam pengembangan LLMs. “Seiring waktu, LLMs terus berkembang, semakin cerdas, efisien, dan mudah diakses. Evolusi ini ditandai dengan sejumlah tonggak penting yang merefleksikan lompatan kemampuan teknologi dan dampaknya terhadap penggunaan di dunia nyata,” katanya.
Sementara Ir Irving Vitra Paputungan, ST, MSc, PhD, Ketua Program Studi Informatika, Program Magister FTI UII menyambut hangat kehadiran mahasiswa baru semester genap tahun akademik 2024/2025. Irving mengucapkan rasa syukur dan kebanggaannya atas kepercayaan mahasiswa baru untuk melanjutkan studi S2 di lingkungan akademik yang berlandaskan nilai-nilai keislaman dan keilmuan yang unggul.
“Selamat datang di keluarga besar Magister Informatika UII. Kehadiran Anda semua membawa semangat baru dalam pengembangan teknologi dan riset yang bermanfaat bagi masyarakat luas,” kata Irving Vitra Paputungan.
Irving berharap pada seluruh mahasiswa baru untuk menjadikan masa studi ini sebagai momentum untuk bertumbuh secara intelektual dan spiritual. “Semoga mahasiswa baru dapat memanfaatkan semua fasilitas dan kesempatan yang tersedia, serta menjalin kolaborasi yang produktif dengan dosen dan sesama mahasiswa untuk mencapai prestasi akademik dan kontribusi nyata bagi masyarakat,” harapnya. (*)