Розмір відео: 1280 X 720853 X 480640 X 360
Показувати елементи керування програвачем
Автоматичне відтворення
Автоповтор
いつもありがとうございます。長年あやふやだったことが少しわかった気がします。
Leica M8を買おうと思っていましたが疑問が晴れました!
毎度詳しい専門的な解説、ありがとうございます。正直、計算式部ではよく理解出来ませんが、図を使った解説もあるので、漠然と理解は出来たように思います。現実問題、フルフレームでトリミングとなると、レンズ考えたら無駄に邪魔でデカイことで、やはり適材適所で使い分けですね。
思っていたことは正しかったと分かりました。ありがとうございます。等倍鑑賞たのしい。
色々な俗説がある中、最小許容錯乱円のことまでちゃんと説明して、理論的に結論を導き出しているのでスッキリしました。プロの方ですか?
プロ写真家ではないですよ。元プロカメラ開発者です。開発者はみんなプロか。笑
@@camera_club_TV ははは、当然開発のプロっていう意味です。自分もひよっこではありますが、ディジタル画像入力装置(デジカメでは無いです)の設計で飯を食っているので同じ匂いがしました(笑)
焦点深度表のf32の値、APS-Cとマイクロフォーサーズで逆ですよね。誰も気付かなかった様だから良いのかな?
素人の自分の理解では、「フルフレームで被写界深度の深い写真を撮る場合、かつ2000万画素程度で良くて高ISO感度も必要ない条件であれば、マイクロフォーサーズでも同等画質の写真を軽く小さいレンズで撮ることが出来る」なんですがだいたい現状としてはそんな感じという事でいいんでしょうか?w例えばフルフレームで35mmF8でスナップ写真を撮った場合、その画角と被写界深度はマイクロフォーサーズの17.5mmF4と同じであり、それはフルフレーム17.5mmF4で撮ったものを4分の1にトリミングしたものと同じでもある、という事なんですよね?(合ってるよな…ドキドキ…w
許容錯乱円、難しい言葉ですね、初体験です。素人的に解像素子のサイズと読み替えるとイメージがわきます。イメージ的にはM4/3難しいサイズ(撮像サイズが小さくなるから素子も小さくなる方向)かなと感じました。
35mm判とMFTの話は議論になっているのをよく見ますが、今度からはこの動画を見れば(見せれば)バッチリですね!
基礎理論はともかくとして、実際に実験した動画がネットにあったりして、同じ焦点距離同じf値で数種のレンズを撮り比べしてボケ量が全く違う。なんででしょうね。
実際には収差など不確定要素がたくさんあるので、あくまでも理論値のお話です。ただ、大ボケでは球面収差の補正の仕方でボケ方は大きく異なりますが、今回のように極焦点近傍ではそれほど影響受けません。
参考になります。
今日は視聴者さんからのコメントにお答えしました。とあったので、似たような疑問で?勝手ながら質問いたします。れもん方型等基本、形、状況は理解しているつもりですが?「歴30年-以上です。」点光源等の形が?レモンぽく等があったり、方向でもなく、側でも丸い!等がありますか、光源に向けた?向いた?方向でと思っていましたが、向きではなく「レンズ性能がいい!!」になる傾向?何故?なのでしょうか?文でも?よろしくお願いいたします。
昔凸レンズはプリズムの集まりって眼科の先生から教わりました。だからなんとなく真ん中付近の光の方が曲がってない光が集まるので絞るもんだと思ってました。違いましたねwカメラを始めた頃は山や人物の絵に合わせて距離を適当に決めて移すカメラでした。今でもハーフサイズのオリンパスペンS使ってますが、目測でピントがそれなりに合うのがうれしいですね。念のため絞れるだけ絞りますがw
一つ目の解説について質問です。結論は「2段絞りを開けることが”できる”」とのことですが、その結果2段分シャッタースピードを速くしたりISO感度を下げたりできる訳ではないですよね?フルフレームのF16とMFTのF8ではセンサー1画素当たりの光量が同じだなと思ったので。
「フルフレームで絞ったりトリミングしたりすれば、MTFSと同じ被写界深度と同じ画質の写真が撮れる」についてのお答え(同じ焦点距離、同じF値なら同じ解像度の写真が取れる)はレンズの解像度を無限と仮定すれば正しいですが、実際にはレンズの解像度にも設計上の上限があり、特にフィルム時代のレンズでは、今のデジタルカメラの撮像素子の解像度に追いついていないものも見受けられ、そのようなレンズを使用すると、大フォーマットからトリミングした写真が小フォーマットのノートリミングの写真と解像度において同じにはならないと思われます。 そのため、誤解を招かないように、上記は前提条件付きの回答であることを示したほうが良いと思いますが、いかがでしょうか。
撮像素子に関しても像面の単位面積当りの素子数は、同クラスのFFとMTFSとなら一般にMTFSの方が密度が高いはずなので、「同じ解像の写真が撮れる」というのは語弊があるのではないかと思いますが、MTFSと絞ったFFでδを同じ値10μとしたことで、レンズや撮像素子の像面単位面積当りの解像度は両者とも同じであると仮定したことになるのでしょうか?何れにしても現実的には一般にMTFSの方が高い解像の写真が撮れるといえるのではないかと思います。
リクエストにお答えいただきありがとうございました!改めて頭の中で整理しながら考えることができました。まず2つ目の質問の結論に関して、既にフルフレームカメラを持っている人がパンフォーカスをさらに綺麗に撮りたいという理由でわざわざMTFSカメラを買い足す必要はないということですね。フルフレームでトリミングすると画素数が減ってしまう問題やMTFSメーカーの軽いカメラが使いたい場合というのはあるでしょうけど。フルフレームでMTFSと全く同じ画素ピッチのカメラ(高画素機)を探せばまさにMTFSの光学系を内部に持っていると言えそうですね。あと、許容錯乱円は画素ピッチとの兼ね合いで決まってくると思っていたのですがトリミングした場合は許容錯乱円も変わるという考え方が興味深かったです。(当たり前と言えば当たり前かもしれませんが)一つ目の質問に関して、画角を揃えた場合、f / D = F より、例えはF/2.4のフルフレームのレンズとMTFSのF/1.2のレンズの口径Dが等しくなり、これは集められる光の総量(∝感度・S/N比・ダイナミックレンジ)が同じになると理解しています。結論の「(MTFSは)2段絞りを開けることができる」という表現はMTFSにしかないメリットのように聞こえるのですが、どちらかというと「MTFSはさらに2段開けないとフルフレーム相当の解像にならない」、と純粋なデメリットのように考えていました。フルフレームに比べて2段絞りを「開けることができる」ことによる優位性はありますでしょうか?色々みてると「同じボケ量ならMTFSの方が明るいので光学的有利」という意見もありましたが「開けることができる」ことによるメリットと関係はありますでしょうか。他の方のコメントを読んでいて追加の質問になりますが、有効画素数が全く同じフルフレームカメラとMTFSカメラがあったとしてそれぞれの間で画角を揃えて口径Dが等しい状態(MTFSが2段明るい状態)にして撮影した場合、画素ごとの撮像素子が受け取る光の量は同じで、画素ピッチだけが異なることになるかと思うのですが、画質(解像やノイズ等)に違いはありますでしょうか?(レンズの解像能力は確かに関係してくるのかとは思いました)(すみません、今ミスに気づきましたがマイクロフォーサーズの略称は MFTS と書くべきでしたでしょうか…笑
単純に思うんですけど なんでカメラは一眼なんですかね?人間の目と同じように二眼にしたらカメラは劇的な進化するように思うのですが
多分立体像の情報付加と受光面積の拡大によるデータ量の増を意識しての発言だと推測するのですが、2センサー以上に分割した情報の同時読み取りによる、1平面からの立体像の作製の必要性がなさ過ぎるというのが結論です。ボケの生成においては昔は2レンズとセンサーによりボケの情報を取得していましたが、立体像の作成において、すでにiPhone等に組み合わされているLiDARセンサーで全面的な距離データの取得を可能にしています。すでに用途において一面からの立体データはそれのみでは電子ボケの生成にしか利用しないのです。疑問を平面データの同時取得に限るならハイレゾショットがそれの答えに当たります。OM-1等ではハイレゾショットは近いピクセルの数回の取得によりノイズデータの誤差検証に使っているようで疑問の答えに近い結果を出しているのではないかと推測します。結論はセンサーを分割するくらいならまとめたほうが同一面積では情報が大きく取れるのです。余談で、モノクロセンサーとカラーセンサーを分けてデータを取るスマホが有りましたが受光面積の拡大の方が明らかに面積に対する結果の効率が良いので一度しか成り立ちませんでした。
解像度に対する見解は述べられていますので、立体像に関してを中心に述べます。3D写真、3D映像は10年ほど前に流行りましたよね(Nintendo 3DSの頃)2眼カメラ(ステレオカメラ)も50年前からあって、以前の私のスマホにも付いていました。裸眼3Dディスプレイだったので、3Dで撮った写真がすぐ立体的に見えて楽しかったですよ。ただまあ、しばらく遊んだら普通の写真で良くなってしまいましたね。世間的にもそうだったらしく、3D対応機能は今ではほぼ見かけなくなってしまいました。立体写真/ 映像作品は、今はほぼVR (半球/ 全球映像+ HMD) に統合されましたよね。実写3D VR 作品を撮るには、ステレオカメラとバイノーラルマイクが必要になります。Oculus Quest 2などに出力すれば撮った映像を立体視で楽しめそうなものですが全球/ 半球のみのカメラの数に比べて、2眼カメラはかなり数が少ないですね。両目の視差が効いてくるのが近距離の被写体ですが、Yoututbe で多い360° VR映像は遠距離のみの風景映像などが多く、2眼カメラにしてもほとんど違いは分かりません。2眼の実写VRは、近距離の被写体が写ることの多いアダルト作品等で真価を発揮しますね。見た時の臨場感・没入感はすごいので、ホームビデオを2眼VR で撮影するなど民生向けでもニッチな用途がなくはなさそうですが、主流にはならなさそうです。アダルト作品、アーティストのライブ、映画などの業務用カメラがメインになると思います。
実際はセンサーサイズや絞りによりノイズの影響も考慮しなければと思いますが。
ノイズや収差など不確定要素を交えるとわけわかめで答えが出なくなってしまいますので、あくまでも幾何光学的理論値のお話をしました。これを基準に頭に入れておくと、大きな違和感はないかと思います。
とても参考になりました。フルフレームとMFTの画質について侃々諤々の議論になるわけですが、今回の動画からいくとフルフレームをクロップした時の画質で満足できるならMFTにしても満足できるよ、という説明が出来る気がします。
いつもありがとうございます。
長年あやふやだったことが少しわかった気がします。
Leica M8を買おうと思っていましたが疑問が晴れました!
毎度詳しい専門的な解説、ありがとうございます。
正直、計算式部ではよく理解出来ませんが、図を使った解説もあるので、漠然と理解は出来たように思います。
現実問題、フルフレームでトリミングとなると、レンズ考えたら無駄に邪魔でデカイことで、やはり適材適所で使い分けですね。
思っていたことは正しかったと分かりました。ありがとうございます。等倍鑑賞たのしい。
色々な俗説がある中、最小許容錯乱円のことまでちゃんと説明して、理論的に結論を導き出しているのでスッキリしました。プロの方ですか?
プロ写真家ではないですよ。
元プロカメラ開発者です。開発者はみんなプロか。笑
@@camera_club_TV ははは、当然開発のプロっていう意味です。自分もひよっこではありますが、ディジタル画像入力装置(デジカメでは無いです)の設計で飯を食っているので同じ匂いがしました(笑)
焦点深度表のf32の値、APS-Cとマイクロフォーサーズで逆ですよね。誰も気付かなかった様だから良いのかな?
素人の自分の理解では、「フルフレームで被写界深度の深い写真を撮る場合、かつ2000万画素程度で良くて高ISO感度も必要ない条件であれば、マイクロフォーサーズでも同等画質の写真を軽く小さいレンズで撮ることが出来る」なんですがだいたい現状としてはそんな感じという事でいいんでしょうか?w
例えばフルフレームで35mmF8でスナップ写真を撮った場合、その画角と被写界深度はマイクロフォーサーズの17.5mmF4と同じであり、それはフルフレーム17.5mmF4で撮ったものを4分の1にトリミングしたものと同じでもある、という事なんですよね?(合ってるよな…ドキドキ…w
許容錯乱円、難しい言葉ですね、初体験です。素人的に解像素子のサイズと読み替えるとイメージがわきます。イメージ的にはM4/3難しいサイズ(撮像サイズが小さくなるから素子も小さくなる方向)かなと感じました。
35mm判とMFTの話は議論になっているのをよく見ますが、今度からはこの動画を見れば(見せれば)バッチリですね!
基礎理論はともかくとして、実際に実験した動画がネットにあったりして、同じ焦点距離同じf値で数種のレンズを撮り比べしてボケ量が全く違う。なんででしょうね。
実際には収差など不確定要素がたくさんあるので、あくまでも理論値のお話です。ただ、大ボケでは球面収差の補正の仕方でボケ方は大きく異なりますが、今回のように極焦点近傍ではそれほど影響受けません。
参考になります。
今日は視聴者さんからのコメントにお答えしました。とあったので、似たような疑問で?勝手ながら質問いたします。れもん方型等基本、形、状況は理解しているつもりですが?「歴
30年-以上です。」点光源等の形が?レモンぽく等があったり、方向でもなく、側でも丸い!等がありますか、光源に向けた?向いた?方向でと思っていましたが、向きではなく「レンズ性能がいい!!」になる傾向?何故?なのでしょうか?文でも?よろしくお願いいたします。
昔凸レンズはプリズムの集まりって眼科の先生から教わりました。
だからなんとなく真ん中付近の光の方が曲がってない光が集まるので絞るもんだと思ってました。違いましたねw
カメラを始めた頃は山や人物の絵に合わせて距離を適当に決めて移すカメラでした。
今でもハーフサイズのオリンパスペンS使ってますが、目測でピントがそれなりに合うのがうれしいですね。念のため絞れるだけ絞りますがw
一つ目の解説について質問です。
結論は「2段絞りを開けることが”できる”」とのことですが、その結果2段分シャッタースピードを速くしたりISO感度を下げたりできる訳ではないですよね?
フルフレームのF16とMFTのF8ではセンサー1画素当たりの光量が同じだなと思ったので。
「フルフレームで絞ったりトリミングしたりすれば、MTFSと同じ被写界深度と同じ画質の写真が撮れる」についてのお答え(同じ焦点距離、同じF値なら同じ解像度の写真が取れる)はレンズの解像度を無限と仮定すれば正しいですが、実際にはレンズの解像度にも設計上の上限があり、特にフィルム時代のレンズでは、今のデジタルカメラの撮像素子の解像度に追いついていないものも見受けられ、そのようなレンズを使用すると、大フォーマットからトリミングした写真が小フォーマットのノートリミングの写真と解像度において同じにはならないと思われます。 そのため、誤解を招かないように、上記は前提条件付きの回答であることを示したほうが良いと思いますが、いかがでしょうか。
撮像素子に関しても像面の単位面積当りの素子数は、同クラスのFFとMTFSとなら一般にMTFSの方が密度が高いはずなので、「同じ解像の写真が撮れる」というのは語弊があるのではないかと思いますが、MTFSと絞ったFFでδを同じ値10μとしたことで、レンズや撮像素子の像面単位面積当りの解像度は両者とも同じであると仮定したことになるのでしょうか?何れにしても現実的には一般にMTFSの方が高い解像の写真が撮れるといえるのではないかと思います。
リクエストにお答えいただきありがとうございました!
改めて頭の中で整理しながら考えることができました。
まず2つ目の質問の結論に関して、既にフルフレームカメラを持っている人が
パンフォーカスをさらに綺麗に撮りたいという理由で
わざわざMTFSカメラを買い足す必要はないということですね。
フルフレームでトリミングすると画素数が減ってしまう問題や
MTFSメーカーの軽いカメラが使いたい場合というのはあるでしょうけど。
フルフレームでMTFSと全く同じ画素ピッチのカメラ(高画素機)を探せば
まさにMTFSの光学系を内部に持っていると言えそうですね。
あと、許容錯乱円は画素ピッチとの兼ね合いで決まってくると思っていたのですが
トリミングした場合は許容錯乱円も変わるという考え方が興味深かったです。
(当たり前と言えば当たり前かもしれませんが)
一つ目の質問に関して、画角を揃えた場合、f / D = F より、
例えはF/2.4のフルフレームのレンズとMTFSのF/1.2のレンズの口径Dが等しくなり、
これは集められる光の総量(∝感度・S/N比・ダイナミックレンジ)が同じになると理解しています。
結論の「(MTFSは)2段絞りを開けることができる」という表現は
MTFSにしかないメリットのように聞こえるのですが、
どちらかというと「MTFSはさらに2段開けないとフルフレーム相当の解像にならない」、
と純粋なデメリットのように考えていました。
フルフレームに比べて2段絞りを「開けることができる」ことによる優位性はありますでしょうか?
色々みてると「同じボケ量ならMTFSの方が明るいので光学的有利」という意見もありましたが
「開けることができる」ことによるメリットと関係はありますでしょうか。
他の方のコメントを読んでいて追加の質問になりますが、
有効画素数が全く同じフルフレームカメラとMTFSカメラがあったとして
それぞれの間で画角を揃えて口径Dが等しい状態(MTFSが2段明るい状態)にして撮影した場合、
画素ごとの撮像素子が受け取る光の量は同じで、画素ピッチだけが異なることになるかと思うのですが、
画質(解像やノイズ等)に違いはありますでしょうか?
(レンズの解像能力は確かに関係してくるのかとは思いました)
(すみません、今ミスに気づきましたがマイクロフォーサーズの略称は MFTS と書くべきでしたでしょうか…笑
単純に思うんですけど なんでカメラは一眼なんですかね?
人間の目と同じように二眼にしたらカメラは劇的な進化するように思うのですが
多分立体像の情報付加と受光面積の拡大によるデータ量の増を意識しての発言だと推測するのですが、2センサー以上に分割した情報の同時読み取りによる、1平面からの立体像の作製の必要性がなさ過ぎるというのが結論です。
ボケの生成においては昔は2レンズとセンサーによりボケの情報を取得していましたが、立体像の作成において、すでにiPhone等に組み合わされているLiDARセンサーで全面的な距離データの取得を可能にしています。
すでに用途において一面からの立体データはそれのみでは電子ボケの生成にしか利用しないのです。
疑問を平面データの同時取得に限るならハイレゾショットがそれの答えに当たります。
OM-1等ではハイレゾショットは近いピクセルの数回の取得によりノイズデータの誤差検証に使っているようで疑問の答えに近い結果を出しているのではないかと推測します。
結論はセンサーを分割するくらいならまとめたほうが同一面積では情報が大きく取れるのです。
余談で、
モノクロセンサーとカラーセンサーを分けてデータを取るスマホが有りましたが受光面積の拡大の方が明らかに面積に対する結果の効率が良いので一度しか成り立ちませんでした。
解像度に対する見解は述べられていますので、立体像に関してを中心に述べます。
3D写真、3D映像は10年ほど前に流行りましたよね(Nintendo 3DSの頃)
2眼カメラ(ステレオカメラ)も50年前からあって、以前の私のスマホにも付いていました。
裸眼3Dディスプレイだったので、3Dで撮った写真がすぐ立体的に見えて楽しかったですよ。
ただまあ、しばらく遊んだら普通の写真で良くなってしまいましたね。
世間的にもそうだったらしく、3D対応機能は今ではほぼ見かけなくなってしまいました。
立体写真/ 映像作品は、今はほぼVR (半球/ 全球映像+ HMD) に統合されましたよね。
実写3D VR 作品を撮るには、ステレオカメラとバイノーラルマイクが必要になります。
Oculus Quest 2などに出力すれば撮った映像を立体視で楽しめそうなものですが
全球/ 半球のみのカメラの数に比べて、2眼カメラはかなり数が少ないですね。
両目の視差が効いてくるのが近距離の被写体ですが、Yoututbe で多い360° VR映像は
遠距離のみの風景映像などが多く、2眼カメラにしてもほとんど違いは分かりません。
2眼の実写VRは、近距離の被写体が写ることの多いアダルト作品等で真価を発揮しますね。
見た時の臨場感・没入感はすごいので、ホームビデオを2眼VR で撮影するなど
民生向けでもニッチな用途がなくはなさそうですが、主流にはならなさそうです。
アダルト作品、アーティストのライブ、映画などの業務用カメラがメインになると思います。
実際は
センサーサイズや絞りにより
ノイズの影響も考慮しなければ
と思いますが。
ノイズや収差など不確定要素を交えるとわけわかめで答えが出なくなってしまいますので、あくまでも幾何光学的理論値のお話をしました。
これを基準に頭に入れておくと、大きな違和感はないかと思います。
とても参考になりました。フルフレームとMFTの画質について侃々諤々の議論になるわけですが、今回の動画からいくとフルフレームをクロップした時の画質で満足できるならMFTにしても満足できるよ、という説明が出来る気がします。