2025年9月10日

iPhone 16 Pro Max カメラの不具合


私はiPhone 16 Pro Maxを使っています。
そのカメラが、どうもおかしいと気がついたのはiPhone 16eが発売された時のことです。

今年(2025年)3月、スタンダード機のiPhone 16よりも廉価版となる16eが発売されました。
廉価版ながらもカメラは48MPですが、イメージセンサーは16よりも小さいとのこと。
では、どれほどの違いがあるのだろうかとApple Storeで16eと16の展示機を使わせてもらい試してきました。
結果は、拡大比較すると、やはり解像度が落ちるのが分かるものの、一般の人がiPhoneの画面上で見る分には気にするような差はないように思います。

・16eと16で撮影した写真の中心あたりを拡大比較した画像

この時に自分の16 Pro Maxでも同じ構図で撮影していたのですが、16と比較してみると気になる点がありました。

Proモデルのイメージセンサーは16よりもさらに大きいので、16eは当然のこと、16と比べてもより解像度が高いだろうと想像していました。
ところが、16eよりは良かったものの、16と比較すると劣っているように見えます。

・展示機の16と私の16 Pro Maxで撮影した写真の拡大比較

これは焦点距離が16の26mmに対しPro Maxの24mmという画角の差からくる影響か?それともピント位置が違ったのか?
後日、改めて16と16 Pro Maxとを比較をしてみました。

・全体

中央あたりを拡大比較。それほど違いは見られません。

しかし、端のほうにいくとPro Maxのほうが大きくぼやけています。

焦点距離やセンサーサイズの違いからくる被写界深度の差か?などと考えたのですが、2xでも同様の結果になります。

・2x、全体

・中央あたりの拡大比較

・端のほうの拡大比較

2xは48MPイメージセンサーの中心部を12MPに切り抜いただけのはずだから周辺部がぼやけることはないはずです。

この現象はメインカメラのみに起こります。超広角、望遠カメラでは端がぼやけることはありません。

・各カメラで撮影した右下あたりを拡大比較

よく見ると、ぼやけるというか残像が出ているみたいです。
これはProモデル特有の現象なのか?
いや、個体差の可能性もあるか?
そう思い、再度Apple Storeに行って、展示機の16 Pro、16 Pro Maxと私の16 Pro Maxとを比較してみました。

その結果、展示機ではProもPro Maxも端まで綺麗に写っています。
ということで、これは私の16 Pro Max特有の現象ということが確認できたので、Genius Barで修理してもらうことにしました。
修理内容はカメラユニット交換となりました。メインカメラだけでなく、望遠、超広角含めて丸ごとです。
修理は4時間ほどでできるとのことでしたが、これで直らなければ精密検査が必要とのことで、そうなると時間がかかるそうです。

そうして修理から戻ってきた私の16 Pro Max、果たして直っているのでしょうか……

直ってません!

カメラの設定をいろいろ変更してみたり、HDR合成が行われないバーストモードで撮影してみたり、高機能カメラアプリのHalideでフォーカスを手動で変更してみたり、同じくHalideの合成処理をしない撮影モードで撮影してみたりしたのですが、結果は変わらず。
ソフトウェアの問題か各プロセッサの問題か、これは根が深そうです。
再修理に出してる時間もないし解決するとも思えないので、これ以上追求することはやめることにします。

その昔なら、即、本体交換となっていたでしょうけどね……。

2025年9月2日

MacBook Proのための外部モニターディスプレイ選び

 

MacBook Proを買い替えました。
13年ぶりです。
白物家電でさえ耐用年数は10年とかです。それがデジタル機器で13年て、もう平成どころか武士が刀振り回してマンモス追いかけてるくらい昔のハナシになってしまいます。
さすがに、これだけ年数が経つと周辺機器も時代遅れになってしまいました。
外付けHDDの接続ケーブルはFireWire 800、2008年製のプリンターはドライバが最新OSに非対応、そして外部モニターディスプレイは2006年製!
と、これらも順次更新していくつもりですが、今回はモニターディスプレイの選定について。


当初はMacを買い替えたらすぐにモニターディスプレイも買い替えようと考えていたのですが、さて、どんな仕様のものを選べばいいのだろうかと考えていたら1年以上が経ってしまいました。

何を考えていたか。
まず、iPhoneの写真をできる限り忠実に表示できるものがいい。

サイズは24か27インチ。

解像度はiPhoneの460ppiは無理だとしても、なるべく高解像度のもの。

対応色域はP3

mini LEDとかの高コントラストで、ピーク輝度が1600ニトでHDR表示できるもの……

とか考えているとAppleのPro Display XDRになってしまいます。
お値段¥728,800!

無理です!

しかし、まてよ、MacBook ProのディスプレイってP3でピーク輝度1600ニトでHDR表示できるやん!
サイズは16インチと小さいけど、iPhoneの写真をほぼそのまま表示できます。
伊達に高いわけではないのであった。このスペックのディスプレイが搭載されていると考えると、むしろお値打ちですよ!
(はい、アフィリエイト広告)


そこで振り出しに戻り、実際の使用状況を思い浮かべてみました。
外部ディスプレイ(デュアルディスプレイ)を使うのはAffinity Designer(not Adobe!)や Shade 3Dなどパレットをたくさん並べて作業する時です。


写真はというと、私の場合、iPhoneで撮影した写真はデモンストレーションの意味合いがあるので、ブログやX(Twitter)に上げる際も何も編集しません。(16 Pro MaxではiPhone内のスタイルを適用することはありますが)
一般的なカメラのように、RAWを現像するとかアーティスティックに仕上げることはないし、印刷することもありません。
外部ディスプレで写真を編集するのは、機材や製品の写真をブログに載せるために少し調整する程度なので、Adobe RGBやP3ほどの広色域は必要ありません。
むしろ、不特定多数のディスプレイでの表示を想定するならsRGBで調整したほうがいいのでは?と、下記の記事を読んで思いました。

いやでも、Adobe RGB対応機種ならsRGBモードでも表示できるのか。
と、大型家電量販店でEIZO ColorEdge CS2400Sのデモ機で、実際にiPhoneで撮った写真を表示してみると、sRGBとAdobe RGBでは歴然とした差がありまして。

じゃあ、Adobe RGBを必要とする時はあるのか?

とか思考がぐるぐる巡り巡っていますが、2006年製の“ナナオ”のディスプレイ、現状DVI - HDMIケーブルで新しいMacBook Proでも使えているので、急いで買い換える必要性を感じていなくて、なんかこのままダラダラと使い続けそうな……。


ところで、ここまで「写真のHDR表示」と書いてきましたが、本来、写真のHDRといったら、逆光で黒く潰れてしまう被写体や明るすぎて白飛びする箇所を、明るさの違う複数枚の写真を瞬時に合成して白飛びや影の部分のディテールを再現するものです。

iPhoneのスマートHDRもそういった合成を行っていますが、それと同時に映像のHDRのように輝度情報が記録されるのです。(下記記事参照)

よって、高輝度部分をブーストしてより明るくできるHDR対応ディスプレイで表示すると、写真が輝いて見えるのです。

私がはじめて高輝度情報のHDRに対応したiPhoneを手にしたのはXS Maxです。
当時はハイライト部分だけがピーク輝度で強調して(輝いて)表示されていて、面白みはあったものの写真全体で見ると不自然な感じがありました。
それが16 Pro (スマートHDR 5)では、全体的に統一して輝度が上げられ、より自然な仕上がりになっています。
それだけに、HDR表示のあるなしで写真の見え方が大きく変わってしまいます。
例えば、iPhoneの写真アプリ上では明るく見えているのに、HDR表示に対応していないX(Twitter)にアップすると暗くコントラストが低い写真になってしまいます。

HDR表示を否定する人もいると思いますが、iPhoneの写真は、もはやHDR表示された状態こそが本当の姿なのだと思います。

【備忘録】