Ketika Google I/O sedang berlangsung, Apple berjaya mencuri perhatian dengan mengumumkan beberapa ciri ketercapaian (accessability) yang akan membolehkan insan OKU menggunakan peranti dengan lebih selesa. Ciri yang paling menarik perhatian kami ialah kawalan peranti menggunakan pergerakan mata.
Menerusi ciri Eye Tracking, iPhone dan iPad boleh dikawal dengan pergerakan mata dijejak oleh kamera hadapan peranti. Menurut Apple, kecerdasan buatan digunakan untuk mengikut mata pengguna dengan proses kalibrasi boleh dilakukan dalam masa beberapa saat sahaja. Sistem kawalan mata sudahpun disokong pada Vision Pro tetapi kini akhirnya boleh juga digunakan pada telefon iOS dan tablet iPadOS tetapi tidak pada komputer macOS.
Seterusnya ialah Music Haptics yang membolehkan OKU pendengaran menikmati muzik. Mungkin ada yang mengatakan ini adalah ciri aneh tetapi hakikatnya insan pekak juga ingin menikmati muzik dengan cara mereka tersendiri. Taptic Engine pada iPhone akan bergetar mengikut alunan muzik yang dimainkan menerusi Apple Music. Pada waktu ini ciri ini akan hanya diberikan pada iPhone sahaja.
Manakala ciri Vocal Shortcuts pula boleh mengajar peranti untuk memahami pertuturan pengguna yang sudah berubah disebabkan serangan strok, penyakit ALS dan banyak lagi. Peranti diajar untuk mendengar bagaimana ayat tertentu disebut oleh pemilik untuk dijadikan arahan melancarkan aplikasi dengan pantas. Ciri ini sama seperti Project Relate (asalnya Project Euphonia) yang diperkenalkan oleh Google pada tahun 2019.
Personal Voice juga kini menyokong bahasa Mandarin China buat pertama kali. Dengan ciri ini insan yang akan kehilangan kemampuan bercakap boleh merekodkan suara mereka yang kemudian boleh digunakan sebagai ganti suara di masa hadapan. Sebelum ini hanya Bahasa Inggeris sahaja disokong.
Selain itu beberapa lagi ciri ketercapaian juga telah ditambah pada Apple Carplay dan Vision Pro.