Розмір відео: 1280 X 720853 X 480640 X 360
Показувати елементи керування програвачем
Автоматичне відтворення
Автоповтор
ちょっと勘違いされている方が多いので、ここで再度説明します。平板が入っていても、入る前提で光学設計すれば、収差等は取れますから、問題ありません。フィルム用レンズのように平板が無い前提の設計や、他社で平板の光学厚みが異なる前提での設計では、多かれ少なかれ影響を受けるということです。
プロ写真家ですが、貴重なお話ありがたく拝聴しました。御礼申し上げます。ニコンの古い名玉が何故デジカメでピントが悪いか、一つのヒントになりました。勉強になりました、ありがとうございました。
難しい内容でしたが分かりやすい解説で自分でもギリギリ理解できて、すごく面白い内容でした!
コメントありがとうございます!励みになります!
分かりやすい解説でした。為になりました。
ありがとうございます。^^
いままでローパスレスという言葉を電気的に解釈していました。えらい勘違いしてたってことですね。とても分かりやすい説明ですっきりしました。オールドレンズを使っていて感じる違和感も解消です。フィルムだといいレンズなのに、デジタルで使うとえらく平凡な写りになってしまうのはこういうことだったのかという感じです。これからも勉強させていただきます。ありがとうございます!
毎回勉強になります。ニコンのD800Eでローパスレスと言いながら、ローパスを逆相にした水晶板を入れていた理由がわかりました。富士のカメラはローパスレスで高感度特性が1段から1.5段良くなったと本で読んだのに、ニコンは何故あえてローパスを廃止出来なかったのかと不思議でした。
やっとローパスフィルターが何なのか分かった。スッキリ。
よかった!
とんでもない専門性ものすごく勉強になります!ありがとうございます✨
こちらこそ、ご視聴ありがとうございます。これからも発信続けますので、御贔屓にお願いします。
いつも動画ありがとうございます。図解や話し方が丁寧で分かりやすいです。が、1度拝見しただけではカメラ初心者には理解できなかったので、繰り返し拝見して自分の中に落とし込みたいと思います笑
ありがとうございます。解らないところはコメントください。
D800Eがローパスレスじゃなくローパスの効果をローパスで打ち消すやり方になった事情が垣間見えました。
平板光学系の決まり、これがあるからこそ設計が違うからこそ家電量販店等ではレンズの横に「デジタル用」「フィルム用」という表記があるのですね!
量販店も意識してくれてるなら良いことですね。
こんにちは。いつも楽しく拝見させていただいています。ひとつ質問なのですが、デジカメのバッファーについて。バッファーというのは、スマホで使われるUFSが使われているのでしょうか? 上位機種、下位機種で速いバッファー、遅いバッファーというのはコスト的に使い分けが成されているのでしょうか?ググったのですが、この点について詳述されているサイトが無く、動画で教えていただけますと幸いです。よろしくお願いいたします。
カメラでは使えるカードの速度と連写継続枚数の目標に応じて容量を設定してます。スマホレベルのものが使えてるのかは私はわかりません。下位上位では同じエンジン同じ時期なら容量は違えどわざわざ速度変えてないですね。
LUMIX S1を愛用しています。気に入っているのですが、スタジオでモノブロックストロボを使用してRAW撮影すると、かなりの量・頻度でモアレが発生します。以前はソニーのα7ⅢやRⅢを使っていましたが、ここまで出ませんでした。キャプチャワンやシルキーピックスで読み込むとかなり抑えてられていますが、Lightroomでは出ます。愛用のプリセットがLR用ということもあり、大変悩んでおります。S1Rであれば改善されるでしょうか? 画角を変える、絞り込む以外に改善する方法はありますか?また、同じローパスレス機でもどうしてモアレ発生頻度が異なるのでしょうか。
高画素機では原理的にモアレの出る頻度は下がりますが、ソフト的にモアレ除去をカメラ内で処理しています。ですから、同じローパスレス機でもメーカの絵作り思想で変わります。また、RAWをPCソフトで処理すると、最適化したカメラ内処理に比べて出やすくなる場合もあると思います。Lightroom内でどのような処理をしているかわかりませんが、プリセットからパラメータをいじって探し出すしかないかと思います。
丁寧な解説ありがとうございます。フジフィルムは独自のカラーフィルターによりローパスレスを実現しているといいますが、どういう理屈なのでしょうか、解説頂けましたら幸いです。
承知いたしました。
2点質問があります。①複屈折という現象を初めて知りました。よく一眼レフの光路を示した図で、ペンタプリズムに入射した光がファインダーに向かうものと測光センサーに向かうものの2本に分かれているのを見かけます。これも複屈折を利用しているのでしょうか?②平板光学系が考慮されていないオールドレンズで性能が悪化するのは平板通過時屈折角と厚み分だけ光線がずれてしまうからだと思うのですが、つまり光軸付近ではあまり影響なく離れるほど悪化するという理解で良いですか?
①測光センサーのところの見方ですが、光を入れるというより、測光センサーの身になって、測光センサーから見ていると解釈してみてください。どうです?何となくわかりませんか?ちなみに、ここは複屈折関係ないです。②収差の出方が変わりますが、光軸上の方が非点収差とか出ないのでマシと言えばマシです。軸上色収差やバック誤差は出ます。なんだかみなさんを脅かしてしまったような気がしますが、実際使ってみて、どれだけ気になるか、個人の判断が必要かと思います。本人が良いと思えば、それはそれでOKですから。
@@camera_club_TV 回答ありがとうございます。①ファインダー用と測光センサー用それぞれの像を作っているわけではなくて、ファインダーに向けた光を測光センサーが横から(邪魔にならない位置で)覗いてる感じですかね?なんとなく分かりましたが、もしよろしければ測光センサーについて動画で解説して欲しいです。RGB+IRセンサーの画素配列がどうなっているかとか、最近では高画素化した測光センサーで顔認識(ニコンでは瞳認識)まで出来るようになっている様で、その辺の仕組みにも興味があります。②画像全体が一様に悪化するのではなく周辺部に行くほど影響が出る、という話をよく聞くので何故かなと思っていましたが、平板を挟むからという説明で納得出来ました。私はオールドレンズを持っていないのですが、購入時は注意が必要そうですね。
X-trans cmosはたしかカラーフィルターをエキセントリックな配置にして解決知っていたと思いますが解説していただけると助かります。デジタルスチル用途として高画素化するには 光を多く取り込むような半導体の製造技術 マイクロプリズム カラーフィルタなどがあると思いますが今の技術での限界はどこなのでしょうか?
どこも最大限の努力で日進月歩でしょうから、頑張ってもらうしかないですね。
大変、判り易い説明でよく理解出来、すごく参考になり、良い勉強をしました。ありがとうございました。
こちらこそご視聴ありがとうございます!
星撮る人ではレンズ前側にフィルター入れると周辺が流れるからリア側に入れるって聞きますけど7分くらいからの説明と違うように感じるんですが、これはどういった原因は何なんでしょうか?
素晴らしい説明勉強になります。ありがとうございます。シグマのフォビオンセンサーの場合、純正以外のレンズを使うとどうなのでしょうか?
フォビオンセンサー特有の高精細できれいに撮れると思います。交換レンズは時代の流れに合わせて性能アップの努力はしますが、センサーに合わせて設計しているわけではないです。
いつも勉強させて頂いています。4500万画素のeos r5にローパスフィルターが入っているのは、やはり動画を意識した事なのでしょうね!
やはり、8kの動画試写して色モアレが許せなかったんでしょうね。
めちゃくちゃ勉強になります。なんとなくの理解ではいけませんからね…各社ローパスフィルターを理解している前提で製品紹介ページ作ってますからね…素人にはなんのこっちゃ分かりませんよね
誰にでもわかる説明って必要ですね。特にカメラは歴史もあって、そこんところを知らないと唐突な場合もあります。いろいろ解説出来たらと思っています。それから、いつもコメント絡んでくれて助かります。^^
ミラーレスでピンホール写真を撮ろうといくつか試してみたのですが、周辺光量が落ち始めると紫色になります。機種によってその度合いが違うのですが、ローパスフィルターの有る無しに関係するのでしょうか?また、センサーの入射角に関する特性など解説していただけると幸いです。
凄く分かりやすくて、面白かったです。ここで数年前から疑問に思っている事があるのですが、仮に蛍石のみなどの特殊レンズでレンズ設計をした場合のメリット・デメリットをご教授願えないでしょうか?よろしければ、是非ともよろしくお願いいたします。
蛍石だけでは色は取れないんです。硝材は組み合わせてなんぼなんです。
カメラ部TV それは知らなかったです、夜遅くにありがとうございます🙏
毎回大変勉強になるお話有難うございます。ご質問があります。①リアにNDが入っているビデオカメラは、入る前提で設計されているので問題ない、という理解で良いでしょうか?②こちらのレンズは、リアにフィルターホルダーがあります。社外品で専用のNDガラスフィルターが発売されていますが、海外検証サイトによると特に周辺に行くほど解像と収差が悪化するようです。これはもともとフィルター無しで設計されているレンズに、後から平板を足すことの弊害でしょうか?www.sigma-global.com/jp/lenses/cas/product/art/a019_14_24_28/features/③レンズ前玉の前にフィルターを入れる場合は平行光なので特に問題ないとのことでしたが、超広角レンズの場合も問題ないのでしょうか?
早速ですが回答します。①問題ありません。純正でない厚みの異なるものを付けるときは要注意です。②シートタイプと書かれているので、1㎜とかの厚みのあるものを付けると画像は劣化します。③問題ありませんが、フレア/ゴーストに要注意です。
早速のご回答有難うございます。大変勉強になりました!!
よく分かりました。ありがとうございます。マイクロフォーサーズで違うメーカのカメラ、レンズを使った場合にパープルフリンジが出やすいのは、P社とO社でローパスフィルタの厚みが違うから、ということも関係あるのでしょうか。
ローパスなどの厚みは関係ありません。それら光学部材に施すUVカットコートで決まってしまいます。また、マイクロフォーサーズなど同一規格ではボディ内光学部材の厚みは規格化されています。
毎回勉強させて貰いありがとうございます。オールドレンズと言うより、フィルムイオス用レンズも厳密に言うと適切で無いんですよね?軽いデジタル補正は可能なんですかね?
はじめまして。ぶしつけですが、メーカー純正でないレンズ特にオールドレンズを使用する場合は、ローパス有り無しはどちらがいいのでしょうか?広角望遠その他範囲が広いですが、よろしくお願いします。
カメラ側がどういう絵を出したいかで決定されていることなので、レンズには関係ないと思ってください。
うちのk-5IIsはローパスレス機ですが日が当たっている部分の赤色が飽和しやすいです。ローパスフィルターは色も関係しますか?
基本的に関係ないです。おそらくIRカットコートが影響していると思われます。
やっぱり、適合ボディとレンズが一番良いんですねー。絵の決まり方が違いますもんね。昔、オールドレンズ 遊びで、初代ズミクロンで遊んでまして、ある時、typ240につけた時、驚くほど絵が変わったのを覚えています。しかし、ニコンなんかはFからZへ変わり、自社アダプターも出してますが、そこら辺の適合度はどうなんでしょう。otus買いたいですが、買ってもZマウントでは生かしきれない不安があります。
そこんところは大丈夫かと思います。センサー前の光学長だけが少し気になりますが、ちょっと調べるかな。
いつも大変参考にし勉強させて頂いております。私は赤外線写真を撮るためにiRカットフィルター除去の改造をしフルスペクトルにしたカメラに赤外線透過フィルターをレンズ前に装着し赤外線写真を撮影しています。ご説明の平版の話ですと赤外線カットフィルター(ローバスと赤外線カットの2枚)を外したままだとレンズ設計の面で影響が出ると言う事でしょうか?また撮影時に条件にも寄りますがホットスポット(画像中央に丸く明るい光が映り込む)が順光逆光問わず出ることがありますがそれも影響によるものなのでしょうか?自己責任でやってる事なのですがわかる範囲で教えて頂けると嬉しいです。
はい、影響あります。しかし、赤外光だけなら色収差の影響は小さいですが、他の収差は多少なりとも出ているでしょう。中央のホットスポットですが、センサーカバーガラスによるゴーストかもしれません。通常はUV-IRcutフィルターがカバーガラスの前にありますから、赤外光は通りませんから。できるだけ、抑えるには、必要な波長以上のシャープカットフィルターを入れると良いでしょう。
ご回答ありがとうございます。赤外線モノクロですので色収差の影響は少なくても解像と言う意味では影響ありですね。フィルターはシャープカットではなくIR850nmを使用しています。
いつも勉強させていただいておりますありがとうございます!リクエストですが、IRフィルターが何故必要なのか教えていただけないでしょうか?私は天体撮影を行っており、IRフィルターレス機やIRフィルター置換機を使っていますIRフィルターレス機では、必ずレンズや望遠鏡側でIRフィルターを使う様に教えられましたが何故そうしないといけないのかが解っていませんIRフィルター無しだとどういう問題があるのでしょうか?ご教示いただけると幸いですよろしくお願いいたします!
IRフィルタに特化して話してないので、ちょっとややこしいですね。解説するようにします。私も天文屋ですよ!
勉強になります。無料で良いかと思われる内容です。
先程質問させていただきましたか、それは「レンズはローパスフィルターがあることを前提に設計されている」とのご説明があったので、ローパスレスと言った場合、ローパスに相当する何かが必要なのでは?と思って質問させていただきました。よろしくお願いします。
光学厚みを合わせますから、入ってますよ。
いつも大変勉強になります。質問なのですが、昨今テレビや舞台など照明がLED灯が主流となり現状でカメラ側のセンサーがCMOS等が主流だと思いますが、撮影時にブルーのベタ当てだと被写体の境が見えなくなり場合によってはエッジが付かない為に画面上から居なくなる等の現象が出ると思います。開発者目線ではこのようなシチュエーションの回避方法はあるのでしょうか?現時点では照明側にサイドからのサスやタングステン光のピンスポットなりを当てて貰うといった回避策しかないのですが。
専門ではないですが、フリッカーの観点からいうと、LEDは連続発光しているように思われますが、点滅しています。つまり、フリッカーがあります。また、LEDのフリッカーは蛍光灯のように電源周波数に依存しておらず、製品によって全く異なるため、カメラで対応できません。連続発光のフラッドランプ等を照射した方が良いと思います。
@@camera_club_TV ご回答ありがとうございます!やはりそうですよね。いくら現代的なシネマカメラのRAW収録だからどうとかの問題や、最新機種だからとか、クリアスキン等のシャッター速度調整の回避策も根本的に違いますよね。
やはり原理原則を理解して対応しないといつも同じ結果を生むとは限らないですね。RAW動画も騒がれてますが、めんどくさいと思うけど。^^;
レンズと撮像素子の間に余分な光学系が入ると収差が発生するという事は、クリップフィルターより並行に光の入る普通のフィルター使った方が良いですかね?
入れる前提の設計なら問題ないですが、サードパーティ後付けなら多少なりとも影響出ますね。
レンズと撮像素子の間にある光学系の厚さには、それぞれのマウントの規格で屈折率を考慮した総厚っていうのが決まってるのですね。知りませんでした。また勉強になってます!そうなるとまた素人疑問でごめんなさいなのですが、現在マウントアダプターを使ってフランジバックのみを揃えていろんなマウントのレンズを使ったりしてますが、これは上記の点を無視したちょっと雑な行為といえるんでしょうか。もしそうだとしたら、それは実際どのくらい画に影響がでているのでしょうか・・・
マウントアダプターの動画でも解説しましたので、ぜひご覧ください。
ローパスの詳しい原理などもわかりやすく勉強になりました!単に4画素分にぼかしてるわけじゃないんですねローパスフィルターと言えば、ローパスも偏光を利用しているから、ミラーレスであっても、レンズにつけるのはC-PLフィルターでの方が好ましいがローパスレスかつミラーレスであれば、C-PLでなくてもPLで問題ないと聞いたことあるのですが、本当でしょうか?
PLの動画今作ってます。笑明日中にアップできればと思っています。楽しみにしておいてください。
カメラ部TV なんと! 楽しみに待ってます!!
まず、多くのカメラで、フィルムカメラとデジタルセンサーのカメラでレンズを共用しています。説明をお聞きすると、デジタルセンサーの前にはローパスフィルターやそれに類するものが入っているそうです。それで、フィルムカメラとデジタルカメラでレンズを共用して問題ないのでしょうか?又、ローパスレスの場合は、センサーの前にガラスの板が入っている様です。そのメーカーのカメラ全部がローパスレスだと、最初からそのガラスの板なしで済ますことが出来そうに思えました。そういったばあい、やはり画像に対する悪い影響は少なくて済むのでしょうか?
ちょっと勘違いされている方が多いので、ここで再度説明します。平板が入っていても、入る前提で光学設計すれば、収差等は取れますから、平板入ると悪化するわけではありません。回答です。フィルム用レンズをデジタルに付けると、影響は多かれ少なかれ受けます。バックは確実にずれますが、マウントアダプターで調整が入っているでしょう。あとは収差の影響がどれくらいかはレンズによります。デジタルの場合、少なくともセンサーカバーガラスとIRcutガラスは入りますから、無くすことはできません。
こう考えると、センサーをサブピクセル単位で微小駆動させてローパスフィルターと同じ効果を生み出す「ローパスセレクター」とかいう変態技術を搭載したPENTAXってマジで何なんでしょうね…しかもその微小駆動とセンサーシフト手ブレ補正を両立してますから更に変態味が強くなりますね…
そこが技術者にはたまらなかったりする。技術者って変態?笑
保存して何回か見てみます。ローパスレスの場合でも、センサーの前にローパスフィルターの効果の無い、水晶ガラスが入っているのでしょうか?
センサー丸出しはまずあり得ませんよ!笑 レスとあってもローパスフィルターではないだけでちゃーんと保護されてます。安心してください
上田Lv2 様ありがとうございます。
水晶ではなく、普通の光学ガラスかIRcutフィルターが入っています。
EOS Rでドロップインフィルターを使っているんですが、今回語られている内容から推察するとあまり良くないという事になるんでしょうか。
機能フィルターを入れない場合も、同じ厚みのガラス板を入れた方が良いです。ただ、望遠レンズでは光束の傾きが小さいので、収差に対する影響は小さいです。が、バックはずれます。魚眼レンズなどで同様にレンズバックにフィルター入れるタイプは、普段ガラス板を装着するようになっていると思います。
カメラ部TV もちろんNDフィルター使わない時はクリアガラスを入れます。(それを入れないと蓋が無いので穴が開いてる事になってしまうので 笑)Canonの純正(EF→RF変換)アダプターなので安心して買ったのですが、メーカーさんも一生懸命に画像処理技術進化させつつ美しい描写の為にやたら重たいレンズ作ってる割に相反する事をやっちゃうものなのですね〜。とても勉強になりました…ありがとうございます!
元々EFの方が光学厚みが厚い規格の可能性高いですね。なので、ここにフィルター入れた方がEFの性能を維持できるのかもしれません。
カメラ部TV もし強引な設計で無いとしたら後2種類存在する純正マウントアダプターにも平板が付いているべきなのでしょうね。残念なから現在品薄の為入手出来ていないのですが、RFレンズに乗り換える余力が無いので近い内に考えが理解できると思います。丁寧に説明していただきありがとうございます!
1DXマーク3を使用しています。高速連写性能が室内時にかなり低下します。(ファインダー撮影時)ですが、ライブビュー時では同じ条件でも高速連写性能が全く落ちません。どうしてファインダー時に性能が低下するのでしょうか?よろしくお願いします。
かなりと言うのはどの程度でしょうか?仕様的にライブビューの方が速いみたいです。以下仕様書抜粋ファインダー撮影時:最高約16コマ/秒(16~3コマ/秒に設定可能)ライブビュー撮影時:最高約20コマ/秒この差は純粋にミラーアップより先幕閉の方が速いからと思います。
いつも詳しい説明ありがとうございます。この動画、eosr5の説明動画見る限りキヤノンみたいにローパスフィルターを採用しているメーカーは技術力が低いように感じます。技術力が低く採用せざるを得ないのか、デメリットを超えるメリットがあって採用しているのかどっちなのでしょうか?それともローパスの良し悪しは技術屋さんの好みの問題なのでしょうか?
R5は8k動画のためには必要と判断したと思います。技術力云々より画質の対する思想と考えます。
返信ありがとうございます。再度動画を見直しました。ソフトウエア処理のデメリットも気になってきました。写真のキヤノンが高精細を犠牲にしてまでとか、映像のソニーが高精細の方を優先しているのとか謎が深まるばかりです。
是非、センサークリーニングに関して教えて下さい。メーカは、どのような作業でセンサークリーニングをしているのか。やり方さへ理解していれば、ユーザーが簡単に出来る事なのか。
コメントありがとうございます。工場では当然クリーンルームかクリーンブースで静電除去ブロアなどの設備のある中で清掃します。今はフロンが使えないのでオリンパスEE洗浄液かイソプロピルアルコールの使用が多いと思います。ご家庭でのカメラ完成状態のお掃除はサードパーティ製がいろいろ販売されてます。プロの方も使われていますね。後は慣れて腕を磨くしかないかな。^^;
ローパスフィルタがこんなに大変な技術とは知りませんでした。ぶっちゃけ精密な曇りガラスかと。。。それでR6が1DX3"相当"みたいな言い方をしてたんですね。
屈折率が大きいニオブ酸リチウムを使って薄くできても、結局屈折率が大きいため光路長は変わらないと思いますがどうなんでしょうか。
逆なんです。光学的光路長変えずに、分離幅を確保するためです。
カメラ部TV なる程理解しました、ありがとうございます!
勉強させて頂いております。カメラ系有名ユーチューバーさんたちがミラーレス一眼にオールドレンズを付けて”いい”って言ってるのは画質が落ちていても”味”があっていい!ってことなんでしょうか?
ライカの良いころのレンズとかは、フレア率が低くて抜けはよく見えますね。逆に味のあるレンズが性能いいとは限らないので、OLPF云々以前の話かもしれませんね。
@@camera_club_TV さんへ早速の返信ありがとうございます。私にはむつかしいですね(^^;これからも楽しみにしています!
私には難しすぎて分からないこともたまにありますが、いつも楽しく拝見してます。今回リクエストしたいのは軸上色収差とパープルフリンジについての解説です。特に星の写真を撮ってると問題になるこれらの星の色づきですが、レンズが原因だとかセンサーが原因だとか言われたり、対処法もUVカットフィルターを使えばいいなんて情報があったりして何が本当かハッキリしません。ネットではこのことについてちゃんとした知識を持った人の情報は見たことがないので、ぜひ解説動画を作成していただけないでしょうか。
一番の要因はレンズだと思いますが…色ズレは完全には補正出来ませんから特に周辺部は拡大せずとも見えるほど出ますね。いろいろなコーティングやレンズ材料で低減は出来ますが物理的に無くす事は不可能です…残念 UVカットフィルターは逆に星景には向かないでしょう。カットしちゃ星の色が出なくなりますし、光源があるとゴーストフレアの原因になり得ます。普通はお日様が登ってる時間に使う物ですね(青かすみの低減とかする為の奴ですからね) 各社大三元レンズや広角単焦点のページ見れば大体説明されてると思うんですがねぇ
色収差には2種類あるので、おっしゃるパープルフリンジがどういうものかわかりませんが、私も天体写真が趣味ですので、ハロと言われる現象と仮定して、収差に関する動画を作成します。原因は多岐に渡るのでここで書ききれません。すみません。
@@camera_club_TV だいぶ前に気になって調べたことがあるんですが、いろいろな原因が絡んでるらしく、その時は納得いく答えは見つけられませんでした。パープルフリンジについては星が紫に縁取られることでハロと同じ意味だと思います。動画アップされるのを楽しみにしてます。
はじめまして画素数について解説お願いします。文系なので優しく教えてください(1から)^_^
コメントありがとうございます。承知いたしました。リストアップしておきます。しばらくお待ちください。
夜間動画撮影時に、ローパスフィルターが入っていた方が、ざらつきが少ないという噂があるのですが、本当でしょうか?
細かな夜景とかだと、そう感じるかもしれません。ただ、ノイズとかそういうたぐいのものではないですね。
マウントアダプター屋は困っちゃうね画素が小さくなれば目には見えなくなる見えなくなるだけで無くなるわけじゃないOPLF不要論はコストダウンの方便な気もする
消費者として最も困ったことはローパスフィルターレスにしたくせに価格に全く反映されず、何ならローパスフィルターレス機の方が高い。いやいや、ローパスフィルター高いの知ってるで。コストカットしたら高解像になったから価格上がりますってどんな理屈やねん。
部材費が安くなることは確実ですが、無くすために開発費が嵩むことも確かです。結局、開発費(社員の人件費も含めて)が最も高いですから。また、付加価値をお金に換えることもビジネスの基本ですね。
@@camera_club_TV 「なくす方のコストが高い」というのは、1機種だけ実施で、一度確認した設計手法を流用した他機種や長期量産があるので有りえないし、機種ごとのローパスの開発も画素ピッチと光路長整合性維持から手間がかかるので、無くすのが金がかかるというのはコストダウンの正当化に過ぎないでしょうね。シャッタコストダウン目的からの電子先幕も同じような状況の気がしますね。
どうして今更聞けないのですか?
水晶の板を見たら2重に見えるって言う解説に、ちょっと笑った。どんだけ厚い水晶版を持ってるねん。肉眼で確認するには最低でも2cmくらいは欲しい。それで板状になっているなら、凄い値段だね。
ちょっと勘違いされている方が多いので、ここで再度説明します。
平板が入っていても、入る前提で光学設計すれば、収差等は取れますから、問題ありません。
フィルム用レンズのように平板が無い前提の設計や、他社で平板の光学厚みが異なる前提での設計では、多かれ少なかれ影響を受けるということです。
プロ写真家ですが、貴重なお話ありがたく拝聴しました。御礼申し上げます。ニコンの古い名玉が何故デジカメでピントが悪いか、一つのヒントになりました。勉強になりました、ありがとうございました。
難しい内容でしたが分かりやすい解説で自分でもギリギリ理解できて、すごく面白い内容でした!
コメントありがとうございます!
励みになります!
分かりやすい解説でした。為になりました。
ありがとうございます。^^
いままでローパスレスという言葉を電気的に解釈していました。えらい勘違いしてたってことですね。とても分かりやすい説明ですっきりしました。オールドレンズを使っていて感じる違和感も解消です。フィルムだといいレンズなのに、デジタルで使うとえらく平凡な写りになってしまうのはこういうことだったのかという感じです。これからも勉強させていただきます。ありがとうございます!
毎回勉強になります。
ニコンのD800Eでローパスレスと言いながら、ローパスを逆相にした水晶板を入れていた理由がわかりました。
富士のカメラはローパスレスで高感度特性が1段から1.5段良くなったと本で読んだのに、ニコンは何故あえてローパスを廃止出来なかったのかと不思議でした。
やっとローパスフィルターが何なのか分かった。
スッキリ。
よかった!
とんでもない専門性
ものすごく勉強になります!
ありがとうございます✨
こちらこそ、ご視聴ありがとうございます。
これからも発信続けますので、御贔屓にお願いします。
いつも動画ありがとうございます。
図解や話し方が丁寧で分かりやすいです。
が、1度拝見しただけではカメラ初心者には理解できなかったので、繰り返し拝見して自分の中に落とし込みたいと思います笑
ありがとうございます。
解らないところはコメントください。
D800Eがローパスレスじゃなくローパスの効果を
ローパスで打ち消すやり方になった事情が垣間見えました。
平板光学系の決まり、これがあるからこそ設計が違うからこそ家電量販店等ではレンズの横に「デジタル用」「フィルム用」という表記があるのですね!
量販店も意識してくれてるなら良いことですね。
こんにちは。
いつも楽しく拝見させていただいています。
ひとつ質問なのですが、デジカメのバッファーについて。
バッファーというのは、スマホで使われるUFSが使われているのでしょうか? 上位機種、下位機種で速いバッファー、遅いバッファーというのはコスト的に使い分けが成されているのでしょうか?
ググったのですが、この点について詳述されているサイトが無く、動画で教えていただけますと幸いです。
よろしくお願いいたします。
カメラでは使えるカードの速度と連写継続枚数の目標に応じて容量を設定してます。スマホレベルのものが使えてるのかは私はわかりません。下位上位では同じエンジン同じ時期なら容量は違えどわざわざ速度変えてないですね。
LUMIX S1を愛用しています。気に入っているのですが、スタジオでモノブロックストロボを使用してRAW撮影すると、かなりの量・頻度でモアレが発生します。以前はソニーのα7ⅢやRⅢを使っていましたが、ここまで出ませんでした。キャプチャワンやシルキーピックスで読み込むとかなり抑えてられていますが、Lightroomでは出ます。愛用のプリセットがLR用ということもあり、大変悩んでおります。S1Rであれば改善されるでしょうか? 画角を変える、絞り込む以外に改善する方法はありますか?
また、同じローパスレス機でもどうしてモアレ発生頻度が異なるのでしょうか。
高画素機では原理的にモアレの出る頻度は下がりますが、ソフト的にモアレ除去をカメラ内で処理しています。ですから、同じローパスレス機でもメーカの絵作り思想で変わります。
また、RAWをPCソフトで処理すると、最適化したカメラ内処理に比べて出やすくなる場合もあると思います。Lightroom内でどのような処理をしているかわかりませんが、プリセットからパラメータをいじって探し出すしかないかと思います。
丁寧な解説ありがとうございます。フジフィルムは独自のカラーフィルターによりローパスレスを実現しているといいますが、どういう理屈なのでしょうか、
解説頂けましたら幸いです。
承知いたしました。
2点質問があります。
①複屈折という現象を初めて知りました。よく一眼レフの光路を示した図で、ペンタプリズムに入射した光がファインダーに向かうものと測光センサーに向かうものの2本に分かれているのを見かけます。これも複屈折を利用しているのでしょうか?
②平板光学系が考慮されていないオールドレンズで性能が悪化するのは平板通過時屈折角と厚み分だけ光線がずれてしまうからだと思うのですが、つまり光軸付近ではあまり影響なく離れるほど悪化するという理解で良いですか?
①測光センサーのところの見方ですが、光を入れるというより、測光センサーの身になって、測光センサーから見ていると解釈してみてください。
どうです?何となくわかりませんか?
ちなみに、ここは複屈折関係ないです。
②収差の出方が変わりますが、光軸上の方が非点収差とか出ないのでマシと言えばマシです。軸上色収差やバック誤差は出ます。
なんだかみなさんを脅かしてしまったような気がしますが、実際使ってみて、どれだけ気になるか、個人の判断が必要かと思います。本人が良いと思えば、それはそれでOKですから。
@@camera_club_TV 回答ありがとうございます。
①ファインダー用と測光センサー用それぞれの像を作っているわけではなくて、ファインダーに向けた光を測光センサーが横から(邪魔にならない位置で)覗いてる感じですかね?なんとなく分かりましたが、もしよろしければ測光センサーについて動画で解説して欲しいです。RGB+IRセンサーの画素配列がどうなっているかとか、最近では高画素化した測光センサーで顔認識(ニコンでは瞳認識)まで出来るようになっている様で、その辺の仕組みにも興味があります。
②画像全体が一様に悪化するのではなく周辺部に行くほど影響が出る、という話をよく聞くので何故かなと思っていましたが、平板を挟むからという説明で納得出来ました。私はオールドレンズを持っていないのですが、購入時は注意が必要そうですね。
X-trans cmosはたしかカラーフィルターをエキセントリックな配置にして解決知っていたと思いますが解説していただけると助かります。
デジタルスチル用途として高画素化するには 光を多く取り込むような半導体の製造技術 マイクロプリズム カラーフィルタなどが
あると思いますが今の技術での限界はどこなのでしょうか?
どこも最大限の努力で日進月歩でしょうから、頑張ってもらうしかないですね。
大変、判り易い説明でよく理解出来、すごく参考になり、良い勉強をしました。ありがとうございました。
こちらこそご視聴ありがとうございます!
星撮る人ではレンズ前側にフィルター入れると周辺が流れるからリア側に入れるって聞きますけど7分くらいからの説明と違うように感じるんですが、これはどういった原因は何なんでしょうか?
素晴らしい説明勉強になります。ありがとうございます。
シグマのフォビオンセンサーの場合、純正以外のレンズを使うとどうなのでしょうか?
フォビオンセンサー特有の高精細できれいに撮れると思います。交換レンズは時代の流れに合わせて性能アップの努力はしますが、センサーに合わせて設計しているわけではないです。
いつも勉強させて頂いています。
4500万画素のeos r5にローパスフィルターが入っているのは、やはり動画を意識した事なのでしょうね!
やはり、8kの動画試写して色モアレが許せなかったんでしょうね。
めちゃくちゃ勉強になります。なんとなくの理解ではいけませんからね…各社ローパスフィルターを理解している前提で製品紹介ページ作ってますからね…素人にはなんのこっちゃ分かりませんよね
誰にでもわかる説明って必要ですね。
特にカメラは歴史もあって、そこんところを知らないと唐突な場合もあります。いろいろ解説出来たらと思っています。
それから、いつもコメント絡んでくれて助かります。^^
ミラーレスでピンホール写真を撮ろうといくつか試してみたのですが、周辺光量が落ち始めると紫色になります。
機種によってその度合いが違うのですが、ローパスフィルターの有る無しに関係するのでしょうか?
また、センサーの入射角に関する特性など解説していただけると幸いです。
凄く分かりやすくて、面白かったです。ここで数年前から疑問に思っている事があるのですが、仮に蛍石のみなどの特殊レンズでレンズ設計をした場合のメリット・デメリットをご教授願えないでしょうか?よろしければ、是非ともよろしくお願いいたします。
蛍石だけでは色は取れないんです。
硝材は組み合わせてなんぼなんです。
カメラ部TV それは知らなかったです、夜遅くにありがとうございます🙏
毎回大変勉強になるお話有難うございます。ご質問があります。
①リアにNDが入っているビデオカメラは、入る前提で設計されているので問題ない、という理解で良いでしょうか?
②こちらのレンズは、リアにフィルターホルダーがあります。社外品で専用のNDガラスフィルターが発売されていますが、海外検証サイトによると特に周辺に行くほど解像と収差が悪化するようです。
これはもともとフィルター無しで設計されているレンズに、後から平板を足すことの弊害でしょうか?
www.sigma-global.com/jp/lenses/cas/product/art/a019_14_24_28/features/
③レンズ前玉の前にフィルターを入れる場合は平行光なので特に問題ないとのことでしたが、超広角レンズの場合も問題ないのでしょうか?
早速ですが回答します。
①問題ありません。純正でない厚みの異なるものを付けるときは要注意です。
②シートタイプと書かれているので、1㎜とかの厚みのあるものを付けると画像は劣化します。
③問題ありませんが、フレア/ゴーストに要注意です。
早速のご回答有難うございます。大変勉強になりました!!
よく分かりました。ありがとうございます。マイクロフォーサーズで違うメーカのカメラ、レンズを使った場合にパープルフリンジが出やすいのは、P社とO社でローパスフィルタの厚みが違うから、ということも関係あるのでしょうか。
ローパスなどの厚みは関係ありません。それら光学部材に施すUVカットコートで決まってしまいます。
また、マイクロフォーサーズなど同一規格ではボディ内光学部材の厚みは規格化されています。
毎回勉強させて貰いありがとうございます。オールドレンズと言うより、フィルムイオス用レンズも厳密に言うと適切で無いんですよね?軽いデジタル補正は可能なんですかね?
はじめまして。ぶしつけですが、メーカー純正でないレンズ特にオールドレンズを使用する場合は、ローパス有り無しはどちらがいいのでしょうか?
広角望遠その他範囲が広いですが、よろしくお願いします。
カメラ側がどういう絵を出したいかで決定されていることなので、レンズには関係ないと思ってください。
うちのk-5IIsはローパスレス機ですが日が当たっている部分の赤色が飽和しやすいです。ローパスフィルターは色も関係しますか?
基本的に関係ないです。おそらくIRカットコートが影響していると思われます。
やっぱり、適合ボディとレンズが一番良いんですねー。絵の決まり方が違いますもんね。
昔、オールドレンズ 遊びで、初代ズミクロンで遊んでまして、ある時、typ240につけた時、驚くほど絵が変わったのを覚えています。
しかし、ニコンなんかはFからZへ変わり、自社アダプターも出してますが、そこら辺の適合度はどうなんでしょう。
otus買いたいですが、買ってもZマウントでは生かしきれない不安があります。
そこんところは大丈夫かと思います。センサー前の光学長だけが少し気になりますが、ちょっと調べるかな。
いつも大変参考にし勉強させて頂いております。私は赤外線写真を撮るためにiRカットフィルター除去の改造をしフルスペクトルにしたカメラに赤外線透過フィルターをレンズ前に装着し赤外線写真を撮影しています。ご説明の平版の話ですと赤外線カットフィルター(ローバスと赤外線カットの2枚)を外したままだとレンズ設計の面で影響が出ると言う事でしょうか?また撮影時に条件にも寄りますがホットスポット(画像中央に丸く明るい光が映り込む)が順光逆光問わず出ることがありますがそれも影響によるものなのでしょうか?自己責任でやってる事なのですがわかる範囲で教えて頂けると嬉しいです。
はい、影響あります。しかし、赤外光だけなら色収差の影響は小さいですが、他の収差は多少なりとも出ているでしょう。
中央のホットスポットですが、センサーカバーガラスによるゴーストかもしれません。通常はUV-IRcutフィルターがカバーガラスの前にありますから、赤外光は通りませんから。できるだけ、抑えるには、必要な波長以上のシャープカットフィルターを入れると良いでしょう。
ご回答ありがとうございます。赤外線モノクロですので色収差の影響は少なくても解像と言う意味では影響ありですね。フィルターはシャープカットではなくIR850nmを使用しています。
いつも勉強させていただいております
ありがとうございます!
リクエストですが、IRフィルターが何故必要なのか教えていただけないでしょうか?
私は天体撮影を行っており、IRフィルターレス機やIRフィルター置換機を使っています
IRフィルターレス機では、必ずレンズや望遠鏡側でIRフィルターを使う様に教えられましたが何故そうしないといけないのかが解っていません
IRフィルター無しだとどういう問題があるのでしょうか?
ご教示いただけると幸いです
よろしくお願いいたします!
IRフィルタに特化して話してないので、ちょっとややこしいですね。解説するようにします。
私も天文屋ですよ!
勉強になります。無料で良いかと思われる内容です。
先程質問させていただきましたか、それは「レンズはローパスフィルターがあることを前提に設計されている」とのご説明があったので、ローパスレスと言った場合、ローパスに相当する何かが必要なのでは?と思って質問させていただきました。
よろしくお願いします。
光学厚みを合わせますから、入ってますよ。
いつも大変勉強になります。
質問なのですが、昨今テレビや舞台など照明がLED灯が主流となり現状でカメラ側のセンサーがCMOS等が主流だと思いますが、撮影時にブルーのベタ当てだと被写体の境が見えなくなり場合によってはエッジが付かない為に画面上から居なくなる等の現象が出ると思います。
開発者目線ではこのようなシチュエーションの回避方法はあるのでしょうか?
現時点では照明側にサイドからのサスやタングステン光のピンスポットなりを当てて貰うといった回避策しかないのですが。
専門ではないですが、フリッカーの観点からいうと、LEDは連続発光しているように思われますが、点滅しています。つまり、フリッカーがあります。
また、LEDのフリッカーは蛍光灯のように電源周波数に依存しておらず、製品によって全く異なるため、カメラで対応できません。
連続発光のフラッドランプ等を照射した方が良いと思います。
@@camera_club_TV ご回答ありがとうございます!
やはりそうですよね。
いくら現代的なシネマカメラのRAW収録だからどうとかの問題や、最新機種だからとか、クリアスキン等のシャッター速度調整の回避策も根本的に違いますよね。
やはり原理原則を理解して対応しないといつも同じ結果を生むとは限らないですね。RAW動画も騒がれてますが、めんどくさいと思うけど。^^;
レンズと撮像素子の間に余分な光学系が入ると収差が発生するという事は、クリップフィルターより並行に光の入る普通のフィルター使った方が良いですかね?
入れる前提の設計なら問題ないですが、サードパーティ後付けなら多少なりとも影響出ますね。
レンズと撮像素子の間にある光学系の厚さには、それぞれのマウントの規格で屈折率を考慮した総厚っていうのが決まってるのですね。知りませんでした。また勉強になってます!
そうなるとまた素人疑問でごめんなさいなのですが、現在マウントアダプターを使ってフランジバックのみを揃えていろんなマウントのレンズを使ったりしてますが、これは上記の点を無視したちょっと雑な行為といえるんでしょうか。
もしそうだとしたら、それは実際どのくらい画に影響がでているのでしょうか・・・
マウントアダプターの動画でも解説しましたので、ぜひご覧ください。
ローパスの詳しい原理などもわかりやすく勉強になりました!
単に4画素分にぼかしてるわけじゃないんですね
ローパスフィルターと言えば、ローパスも偏光を利用しているから、
ミラーレスであっても、レンズにつけるのはC-PLフィルターでの方が好ましいが
ローパスレスかつミラーレスであれば、C-PLでなくてもPLで問題ない
と聞いたことあるのですが、本当でしょうか?
PLの動画今作ってます。笑
明日中にアップできればと思っています。
楽しみにしておいてください。
カメラ部TV なんと! 楽しみに待ってます!!
まず、多くのカメラで、フィルムカメラとデジタルセンサーのカメラでレンズを共用しています。説明をお聞きすると、デジタルセンサーの前にはローパスフィルターやそれに類するものが入っているそうです。それで、フィルムカメラとデジタルカメラでレンズを共用して問題ないのでしょうか?
又、ローパスレスの場合は、センサーの前にガラスの板が入っている様です。そのメーカーのカメラ全部がローパスレスだと、最初からそのガラスの板なしで済ますことが出来そうに思えました。そういったばあい、やはり画像に対する悪い影響は少なくて済むのでしょうか?
ちょっと勘違いされている方が多いので、ここで再度説明します。
平板が入っていても、入る前提で光学設計すれば、収差等は取れますから、平板入ると悪化するわけではありません。
回答です。
フィルム用レンズをデジタルに付けると、影響は多かれ少なかれ受けます。バックは確実にずれますが、マウントアダプターで調整が入っているでしょう。あとは収差の影響がどれくらいかはレンズによります。
デジタルの場合、少なくともセンサーカバーガラスとIRcutガラスは入りますから、無くすことはできません。
こう考えると、センサーをサブピクセル単位で微小駆動させてローパスフィルターと同じ効果を生み出す「ローパスセレクター」とかいう変態技術を搭載したPENTAXってマジで何なんでしょうね…
しかもその微小駆動とセンサーシフト手ブレ補正を両立してますから更に変態味が強くなりますね…
そこが技術者にはたまらなかったりする。
技術者って変態?笑
保存して何回か見てみます。
ローパスレスの場合でも、センサーの前にローパスフィルターの効果の無い、水晶ガラスが入っているのでしょうか?
センサー丸出しはまずあり得ませんよ!笑 レスとあってもローパスフィルターではないだけでちゃーんと保護されてます。安心してください
上田Lv2 様
ありがとうございます。
水晶ではなく、普通の光学ガラスかIRcutフィルターが入っています。
EOS Rでドロップインフィルターを使っているんですが、今回語られている内容から推察するとあまり良くないという事になるんでしょうか。
機能フィルターを入れない場合も、同じ厚みのガラス板を入れた方が良いです。ただ、望遠レンズでは光束の傾きが小さいので、収差に対する影響は小さいです。が、バックはずれます。
魚眼レンズなどで同様にレンズバックにフィルター入れるタイプは、普段ガラス板を装着するようになっていると思います。
カメラ部TV もちろんNDフィルター使わない時はクリアガラスを入れます。(それを入れないと蓋が無いので穴が開いてる事になってしまうので 笑)
Canonの純正(EF→RF変換)アダプターなので安心して買ったのですが、メーカーさんも一生懸命に画像処理技術進化させつつ美しい描写の為にやたら重たいレンズ作ってる割に相反する事をやっちゃうものなのですね〜。とても勉強になりました…ありがとうございます!
元々EFの方が光学厚みが厚い規格の可能性高いですね。
なので、ここにフィルター入れた方がEFの性能を維持できるのかもしれません。
カメラ部TV もし強引な設計で無いとしたら後2種類存在する純正マウントアダプターにも平板が付いているべきなのでしょうね。残念なから現在品薄の為入手出来ていないのですが、RFレンズに乗り換える余力が無いので近い内に考えが理解できると思います。丁寧に説明していただきありがとうございます!
1DXマーク3を使用しています。高速連写性能が室内時にかなり低下します。(ファインダー撮影時)ですが、ライブビュー時では同じ条件でも高速連写性能が全く落ちません。どうしてファインダー時に性能が低下するのでしょうか?よろしくお願いします。
かなりと言うのはどの程度でしょうか?
仕様的にライブビューの方が速いみたいです。
以下仕様書抜粋
ファインダー撮影時:最高約16コマ/秒(16~3コマ/秒に設定可能)
ライブビュー撮影時:最高約20コマ/秒
この差は純粋にミラーアップより先幕閉の方が速いからと思います。
いつも詳しい説明ありがとうございます。
この動画、eosr5の説明動画見る限りキヤノンみたいにローパスフィルターを採用しているメーカーは技術力が低いように感じます。
技術力が低く採用せざるを得ないのか、デメリットを超えるメリットがあって採用しているのかどっちなのでしょうか?
それともローパスの良し悪しは技術屋さんの好みの問題なのでしょうか?
R5は8k動画のためには必要と判断したと思います。技術力云々より画質の対する思想と考えます。
返信ありがとうございます。
再度動画を見直しました。
ソフトウエア処理のデメリットも気になってきました。
写真のキヤノンが高精細を犠牲にしてまでとか、映像のソニーが高精細の方を優先しているのとか謎が深まるばかりです。
是非、センサークリーニングに関して教えて下さい。メーカは、どのような作業でセンサークリーニングをしているのか。やり方さへ理解していれば、ユーザーが簡単に出来る事なのか。
コメントありがとうございます。
工場では当然クリーンルームかクリーンブースで静電除去ブロアなどの設備のある中で清掃します。今はフロンが使えないのでオリンパスEE洗浄液かイソプロピルアルコールの使用が多いと思います。
ご家庭でのカメラ完成状態のお掃除はサードパーティ製がいろいろ販売されてます。プロの方も使われていますね。
後は慣れて腕を磨くしかないかな。^^;
ローパスフィルタがこんなに大変な技術とは知りませんでした。ぶっちゃけ精密な曇りガラスかと。。。
それでR6が1DX3"相当"みたいな言い方をしてたんですね。
屈折率が大きいニオブ酸リチウムを使って薄くできても、結局屈折率が大きいため光路長は変わらないと思いますがどうなんでしょうか。
逆なんです。光学的光路長変えずに、分離幅を確保するためです。
カメラ部TV
なる程理解しました、ありがとうございます!
勉強させて頂いております。
カメラ系有名ユーチューバーさんたちがミラーレス一眼にオールドレンズを付けて”いい”って言ってるのは
画質が落ちていても”味”があっていい!ってことなんでしょうか?
ライカの良いころのレンズとかは、フレア率が低くて抜けはよく見えますね。逆に味のあるレンズが性能いいとは限らないので、OLPF云々以前の話かもしれませんね。
@@camera_club_TV さんへ
早速の返信ありがとうございます。
私にはむつかしいですね(^^;
これからも楽しみにしています!
私には難しすぎて分からないこともたまにありますが、いつも楽しく拝見してます。
今回リクエストしたいのは軸上色収差とパープルフリンジについての解説です。特に星の写真を撮ってると問題になるこれらの星の色づきですが、レンズが原因だとかセンサーが原因だとか言われたり、対処法もUVカットフィルターを使えばいいなんて情報があったりして何が本当かハッキリしません。
ネットではこのことについてちゃんとした知識を持った人の情報は見たことがないので、ぜひ解説動画を作成していただけないでしょうか。
一番の要因はレンズだと思いますが…色ズレは完全には補正出来ませんから特に周辺部は拡大せずとも見えるほど出ますね。いろいろなコーティングやレンズ材料で低減は出来ますが物理的に無くす事は不可能です…残念 UVカットフィルターは逆に星景には向かないでしょう。カットしちゃ星の色が出なくなりますし、光源があるとゴーストフレアの原因になり得ます。普通はお日様が登ってる時間に使う物ですね(青かすみの低減とかする為の奴ですからね)
各社大三元レンズや広角単焦点のページ見れば大体説明されてると思うんですがねぇ
色収差には2種類あるので、おっしゃるパープルフリンジがどういうものかわかりませんが、私も天体写真が趣味ですので、ハロと言われる現象と仮定して、収差に関する動画を作成します。
原因は多岐に渡るのでここで書ききれません。すみません。
@@camera_club_TV だいぶ前に気になって調べたことがあるんですが、いろいろな原因が絡んでるらしく、その時は納得いく答えは見つけられませんでした。
パープルフリンジについては星が紫に縁取られることでハロと同じ意味だと思います。
動画アップされるのを楽しみにしてます。
はじめまして画素数について解説お願いします。
文系なので優しく教えてください(1から)^_^
コメントありがとうございます。
承知いたしました。
リストアップしておきます。しばらくお待ちください。
夜間動画撮影時に、ローパスフィルターが入っていた方が、
ざらつきが少ないという噂があるのですが、本当でしょうか?
細かな夜景とかだと、そう感じるかもしれません。
ただ、ノイズとかそういうたぐいのものではないですね。
マウントアダプター屋は困っちゃうね
画素が小さくなれば目には見えなくなる
見えなくなるだけで無くなるわけじゃない
OPLF不要論はコストダウンの方便な気もする
消費者として最も困ったことはローパスフィルターレスにしたくせに価格に全く反映されず、何ならローパスフィルターレス機の方が高い。いやいや、ローパスフィルター高いの知ってるで。コストカットしたら高解像になったから価格上がりますってどんな理屈やねん。
部材費が安くなることは確実ですが、無くすために開発費が嵩むことも確かです。結局、開発費(社員の人件費も含めて)が最も高いですから。また、付加価値をお金に換えることもビジネスの基本ですね。
@@camera_club_TV 「なくす方のコストが高い」というのは、1機種だけ実施で、一度確認した設計手法を流用した他機種や長期量産があるので有りえないし、機種ごとのローパスの開発も画素ピッチと光路長整合性維持から手間がかかるので、無くすのが金がかかるというのはコストダウンの正当化に過ぎないでしょうね。シャッタコストダウン目的からの電子先幕も同じような状況の気がしますね。
どうして今更聞けないのですか?
水晶の板を見たら2重に見えるって言う解説に、ちょっと笑った。どんだけ厚い水晶版を持ってるねん。肉眼で確認するには最低でも2cmくらいは欲しい。それで板状になっているなら、凄い値段だね。