Anda mungkin telah melihat berita utama minggu ini tentang Samsung Galaxy S23 Ultra yang mengambil gambar bulan “palsu”. Sejak S20 Ultra, Samsung telah memiliki fitur yang disebut Space Zoom yang menggabungkan zoom optik 10X dengan zoom digital masif untuk mencapai zoom 100X gabungan. Dalam bidikan pemasaran, Samsung telah menunjukkan ponselnya mengambil gambar bulan yang hampir sejernih kristal, dan pengguna telah melakukan hal yang sama pada malam yang cerah.
Tetapi seorang Redditor telah membuktikan bahwa Samsung Space Zoom yang luar biasa menggunakan sedikit tipu daya. Ternyata saat memotret bulan, Scene Optimizer berbasis AI dari Samsung melakukan banyak hal untuk membuat bulan terlihat seperti difoto dengan teleskop beresolusi tinggi daripada smartphone. Jadi, ketika seseorang memotret bulan—di langit atau di layar komputer seperti di postingan Reddit—mesin komputasi Samsung mengambil alih dan membersihkan kawah dan kontur yang terlewatkan oleh kamera.
Dalam posting lanjutan, mereka membuktikan tanpa keraguan bahwa Samsung memang menambahkan citra “bulan” ke foto untuk membuat bidikan lebih jelas. Seperti yang mereka jelaskan, “Modul penglihatan komputer/AI mengenali bulan, Anda mengambil gambarnya, dan pada titik ini, jaringan saraf yang dilatih pada gambar bulan yang tak terhitung jumlahnya mengisi detail yang tidak tersedia secara optik.” Itu sedikit lebih “palsu” daripada yang dibolehkan Samsung, tapi masih banyak yang bisa diharapkan.
Bahkan tanpa pekerjaan investigasi, seharusnya cukup jelas bahwa S23 tidak dapat mengambil bidikan bulan secara alami. Sementara Samsung mengatakan pemotretan Space Zoomed menggunakan S23 Ultra “mampu menangkap gambar dari jarak 330 kaki yang luar biasa”, bulan berjarak hampir 234.000 mil atau sekitar 1.261.392.000 kaki jauhnya. Itu juga seperempat ukuran bumi. Ponsel cerdas tidak memiliki masalah untuk mengambil foto gedung pencakar langit dengan jelas yang jaraknya lebih dari 330 kaki.
Tentu saja, jarak bulan tidak menceritakan keseluruhan cerita. Bulan pada dasarnya adalah sumber cahaya dengan latar belakang gelap, sehingga kamera membutuhkan sedikit bantuan untuk menangkap gambar yang jelas. Begini cara Samsung menjelaskannya: “Saat Anda mengambil foto bulan, sistem kamera perangkat Galaxy Anda akan memanfaatkan teknologi AI berbasis pembelajaran mendalam ini, serta pemrosesan multi-bingkai untuk lebih meningkatkan detail. Baca terus untuk mengetahui lebih lanjut tentang berbagai langkah, proses, dan teknologi yang menghasilkan gambar bulan berkualitas tinggi.”
Tidak jauh berbeda dengan fitur seperti Mode Potret, Pencahayaan Potret, Mode Malam, Penghapus Ajaib, atau Face Unblur. Itu semua menggunakan kesadaran komputasi untuk menambah, menyesuaikan, dan mengedit hal-hal yang tidak ada. Dalam kasus bulan, mudah bagi AI Samsung untuk membuatnya tampak seperti ponsel mengambil gambar yang luar biasa karena AI Samsung tahu seperti apa bulan itu. Itu alasan yang sama mengapa langit terkadang terlihat terlalu biru atau rerumputan terlalu hijau. Mesin foto menerapkan apa yang diketahuinya pada apa yang dilihatnya untuk meniru kamera kelas atas dan mengkompensasi kekurangan smartphone normal.
Perbedaannya di sini adalah, meskipun algoritme pengambilan foto biasanya mengelompokkan gambar menjadi beberapa bagian dan menerapkan penyesuaian dan kontrol eksposur yang berbeda, Samsung juga menggunakan bentuk terbatas pembuatan gambar AI di bulan yang memadukan detail yang tidak pernah ada sebelumnya. dalam data kamera untuk memulai–tetapi Anda tidak akan mengetahuinya, karena detail bulan selalu terlihat sama jika dilihat dari Bumi.

Samsung mengatakan kamera S23 Ultra menggunakan “mesin peningkatan detail AI berbasis pembelajaran mendalam dari Scene Optimizer untuk secara efektif menghilangkan kebisingan yang tersisa dan meningkatkan detail gambar lebih jauh.”
Samsung
Apa yang akan dilakukan Apple?
Apple dikabarkan banyak menambahkan lensa zoom periskop ke iPhone 15 Ultra untuk pertama kalinya tahun ini, dan kontroversi ini tidak diragukan lagi akan memengaruhi cara Apple melatih AI-nya. Tetapi Anda dapat yakin bahwa mesin komputasi akan melakukan banyak pekerjaan berat di belakang layar seperti yang dilakukannya sekarang.
Itulah yang membuat kamera smartphone begitu hebat. Tidak seperti kamera point-and-shoot, smartphone kita memiliki otak yang kuat yang dapat membantu kita mengambil foto yang lebih baik dan membuat foto yang buruk terlihat lebih baik. Itu dapat membuat foto malam hari tampak seperti diambil dengan pencahayaan yang bagus dan mensimulasikan efek bokeh kamera dengan aperture ultra cepat.
Dan itulah yang akan membuat Apple mendapatkan hasil luar biasa dari zoom 20X atau 30X dari kamera optik 6X. Karena Apple sejauh ini menjauhi astrofotografi, saya ragu itu akan mengambil sampel foto bulan beresolusi lebih tinggi untuk membantu iPhone 15 mengambil bidikan yang lebih jelas, tetapi Anda dapat yakin bahwa Mesin Fotoniknya akan bekerja keras membersihkan tepian , menjaga detail, dan meningkatkan kemampuan kamera telefoto. Dan berdasarkan apa yang kami dapatkan di iPhone 14 Pro, hasilnya pasti spektakuler.
Baik itu Samsung atau Apple, fotografi komputasi telah memungkinkan beberapa terobosan terbesar selama beberapa tahun terakhir dan kami baru saja menggores permukaan dari apa yang dapat dilakukannya. Tidak ada yang benar-benar nyata. Dan jika ya, kita semua akan kurang terkesan dengan foto yang kita ambil dengan smartphone kita.
Posted By : togel hongkonģ hari ini