Jika Anda melewatkannya kemarin, Apple baru saja memberi kami tampilan resmi pertama kami di iOS 16. Tentu saja, itu tidak benar-benar menyebutnya seperti yang terjadi tahun lalu, perusahaan menyoroti beberapa peningkatan aksesibilitas yang akan datang ke sistem operasinya, dengan mengatakan hanya saja mereka akan datang “akhir tahun ini dengan pembaruan perangkat lunak di seluruh platform Apple.” Itu pada dasarnya kode untuk iOS 16, iPadOS 16, watchOS 9, dan macOS 13.
Sementara fitur-fitur yang diumumkan Apple merupakan peningkatan yang luar biasa bagi mereka yang memiliki berbagai gangguan penglihatan, bicara, atau motorik, mereka juga berbicara tentang beberapa peningkatan keseluruhan—terutama dalam AI dan pembelajaran mesin—yang kemungkinan akan kita lihat di seluruh generasi sistem operasi Apple berikutnya. Jika kita membaca pengumumannya, berikut adalah beberapa kemajuan besar yang dapat kita lihat di iOS 16:
Teks langsung = Pengenalan ucapan yang lebih baik
Android telah memiliki fitur teks langsung sejak versi 10, dan sekarang Apple akan mendapatkannya tiga tahun kemudian. Dengan pengaturan ini diaktifkan, iPhone atau Mac Anda (jika memiliki silikon Apple) akan secara otomatis menghasilkan teks secara real time untuk konten audio apa pun, termasuk video, panggilan FaceTime, panggilan telepon, dan banyak lagi. Ini adalah perpanjangan alami dari pemrosesan ucapan di perangkat yang diperkenalkan tahun lalu di iOS 15, tetapi ini menunjukkan peningkatan besar dalam kecanggihan fitur itu.
Kami berharap ini berarti peningkatan pemahaman Siri tentang perintah dan dikte Anda, tetapi orang dapat dengan mudah melihat fitur ini muncul di tempat lain. Ambil contoh, aplikasi Notes, di mana orang dapat membayangkan fitur “transkripsi” untuk membuat teks dari rekaman audio atau video apa pun. Jika Apple menagihnya sebagai fitur aksesibilitas, transkripsi Live Caption harus kuat, dan ini membuka banyak kemungkinan untuk iOS 16 lainnya.
Pencerminan Apple Watch = Peningkatan AirPlay
Fitur aksesibilitas lain yang datang akhir tahun ini akan memungkinkan Anda mencerminkan Apple Watch di iPhone dan menggunakan layar iPhone untuk mengontrol jam. Ini dirancang untuk membuat elemen lebih mudah dimanipulasi bagi mereka yang memiliki masalah fungsi motorik dan memungkinkan pengguna yang cacat untuk menikmati semua fitur iPhone. fitur aksesibilitas ekstra.

Apple akan mengizinkan pencerminan Apple Watch akhir tahun ini—berkat kemajuan AirPlay baru.
apel
Namun, mirroring Apple Watch juga memiliki implikasi yang menarik. Apple mengatakan fitur tersebut “menggunakan integrasi perangkat keras dan perangkat lunak, termasuk kemajuan yang dibangun di AirPlay.” Itu tidak perlu berarti kita akan melihat sesuatu seperti AirPlay 3, tetapi sepertinya ada beberapa peningkatan yang akan datang ke AirPlay, mungkin dalam hal kerangka kerja baru untuk pengembang.
Khususnya, ini sepertinya memungkinkan perangkat untuk mengomunikasikan maksud kontrol dengan cara yang tidak dilakukan AirPlay saat ini. AirPlay mendorong audio dan video ke perangkat, dan memungkinkan kontrol sederhana (putar/jeda, volume, dan sebagainya), tetapi mengizinkan perangkat yang kompatibel dengan AirPlay untuk memberi sinyal kontrol sentuh tingkat lanjut tampaknya baru dan dapat menghasilkan beberapa fitur baru yang luar biasa.
Inilah skenario pembunuh: Jika Apple dapat mencerminkan Apple Watch Anda ke iPhone Anda dan memungkinkan Anda untuk sepenuhnya berinteraksi dengannya, itu mungkin dapat mencerminkan iPhone Anda ke Mac atau iPad Anda dan melakukan hal yang sama! Itu saja akan menjadi fitur yang mengubah permainan.
Deteksi Pintu = Pengenalan objek AR dunia nyata
Apple telah diam-diam meningkatkan pengenalan objeknya untuk beberapa waktu sekarang. Misalnya, Anda dapat mencari segala macam hal di aplikasi Foto dan mendapatkan gambar yang memuatnya, dan iOS 15 menambahkan fitur pencarian visual yang rapi yang menggunakan kamera untuk mengidentifikasi tanaman dan hewan, landmark terkenal, karya seni, dan hal lainnya.
Sekarang Apple telah mengumumkan akan menambahkan kemampuan untuk mendeteksi pintu secara real time menggunakan aplikasi Magnifier, termasuk menilai jarak dan membaca teks pada mereka. Ini hanya untuk perangkat dengan LiDAR (yang merupakan rentang pengukurannya), tetapi ini menunjukkan peningkatan yang lebih luas dalam pengenalan objek.

Kamera iPhone akan segera dapat mendeteksi jika pintu terbuka.
apel
Kasus penggunaan yang paling jelas adalah kacamata augmented reality atau kacamata, yang diperkirakan tidak akan dirilis paling cepat tahun depan. Tetapi Apple sudah memiliki kerangka kerja ARKit yang kuat untuk pengembang, yang digunakan untuk aplikasi AR, dan itu mencakup kemampuan untuk mengenali dan melacak item sehari-hari tertentu. Dan itu tidak akan keluar dari karakter Apple untuk melihat teknologi baru yang tidak diluncurkan untuk sementara waktu.
Tampaknya masuk akal untuk menganggap bahwa fitur Deteksi Pintu adalah perpanjangan alami dari pekerjaan yang sudah dilakukan Apple dalam adegan augmented reality dan deteksi objek. Jadi jangan kaget jika Anda melihat demo di WWDC fitur kerangka kerja ARKit baru untuk pengembang. Ini mungkin dimulai di iOS 16 dengan aplikasi AR baru, tetapi itu juga pasti akan muncul di proyek yang jauh lebih besar karena Apple terus meluncurkan perangkat lunak AR-nya menuju integrasi akhirnya dalam kacamata AR.
Posted By : togel hongkonģ malam ini