Carian
MaLLaM – Model Bahasa Raya Malaysia, Menjanjikan Hasil Terbaik Untuk AI Berbahasa Malaysia, Sokongan Multi-Bahasa
March 26, 2024 Aman

Pada hari ini, terdapat beberapa model bahasa raya (LLM) dipasaran yang dilatih untuk pelbagai tujuan menggunakan model berbeza. Salah satunya adalah penawaran tempatan tersendiri, dinamakan MaLLaM. Dibangunkan dibawah Mesolitica, ia menyertakan beberapa kelebihan, dan salah satunya adalah keupayaan untuk memahami bahasa Melayu penggunaan tempatan, Jawi, Manglish, Mandarin dan bahasa Indonesia sebagai input.

Dengan penawaran ini, ia sekaligus menjadikan MaLLAM lebih sesuai digunakan untuk menguasakan pelbagai perkhidmatan berasaskan chat, memfokuskan pengguna tempatan.

MaLLaM telah dilatih menggunakan model-model berparameter 1.1 bilion, 3 bilion dan 5 bilion, melalui dataset bersaiz 349GB – disamakan dengan penggunaan 90 bilion token untuk latihan. Menurut pembangunnya, walaupun dilatih menggunakan dataset bersaiz sedikit kecil, tetapi ia menawarkan hasil yang lebih baik berbanding model-model lain untuk input pengguna Malaysia, termasuk penggunaan multi-bahasa. Ini sekaligus akan membolehkan lebih banyak aplikasi dibangunkan menggunakannya, khususnya untuk pengguna Malaysia.

MaLLaM ditawarkan dalam bentuk sumber terbuka, dan boleh didapati melalui HuggingFace. Anda juga boleh menyemak laman rasmi MaLLaM di Mesolitica.

Komen