Pembantu maya seperti Assistant, Alexa dan Siri sudah menjadi aplikasi yang digunakan setiap hari. Dalam majoriti situasi, ia boleh memahami arahan serta soalan yang diberikan. Cuma isu yang wujud pada waktu ini ialah kecerdasan buatan yang digunakan masih belum mampu memahami konteks dengan tepat dan masih terasa seperti anda berbual dengan sebuah mesin.

Di Google I/O, Language Model for Dialogue Applications atau singkatannya LaMDA diperlihatkan. Ia adalah rangkaian neural terkini dari Google yang membolehkan pembantu maya di masa hadapan memulakan dan meneruskan perbualan seperti manusia sebenar. LaMDA dilatih untuk memahami dengan lebih baik perbualannya dengan manusia.
Demo di I/O membolehkan manusia berbual dengan planet kerdil Pluto dan sebuah kapal terbang kertas. LaMDA membolehkan dua objek ini bercerita mengenai diri mereka dan berinteraksi secara semula jadi dengan manusia. Ia menunjukkan peningkatan berbanding kecerdasan Google Duplex yang diperlihatkan tiga tahun yang lalu tetapi pada waktu ini masih terhad pengenalannya di Android.

Dengan LaMDA, Assitant boleh memahami arahan dengan lebih tepat. Misalnya ialah mengarahkan Assistant mencari laluan dengan pemandangan yang cantik apabila ingin memandu dari A ke B atau mencari babak tertentu di dalam sebuah filem ataupun video YouTube.
Google ingin menggunakan LaMDA di Assistant, Search dan Workspace dalam masa terdekat. Ini menimbulkan persoalan adakah di masa hadapan kita dapat membezakan sama ada kita berinteraksi dengan manusia ataupun kecerdasan buatan?