Розмір відео: 1280 X 720853 X 480640 X 360
Показувати елементи керування програвачем
Автоматичне відтворення
Автоповтор
後、撮る方ではなく、視聴者側の方でディスプレイで最大値がHDと4K等があって”同じインチ数でもどちらもあるので、となるとドットの大きさ自体が変動”してるのではないかと思います。なのでそこらへんがあるんじゃないですか。知らんけどw
難しい事はわかりません。あくまで実体験の感覚です。カメラには2種類の役割があってまとめてしまったのでややこしくなってるかもですね。知ってると思いますが写真と動画で、カメラ有効画素数 最大約2・・・万画素と言う表記はおそらくですが写真の方へのメッセージが主かなと思ってます。知ってるかもですが例えば写真を印刷した時、特に拡大印刷すると変わってくるのでそのへんの事かなとは思います。だから動画メインでしたら高画素数は重要ではなくなるかなと。なんか昔テレビで市販されている小さいカメラ(ゴープロやったと・・)をテレビ局の業務用カメラを扱ってるプロの人がロケ中に使用して、本心かどうか知りませんがプロカメラマンが「画質業務用とそんな変わんないですね」って言ってたので衝撃が頭に残ってますw動画は”動き”がメインで写真は”静止画”がメインなので画素数は主に写真の方へのメッセージかなと思います。これは関係無いですが、動画1920×1280を1920×1280に変換しても問題無いが、4Kを1920×1280に変換すると白い輪郭のようなものが出て来たりしたので、もしか”ドットの色の表現”も4K及びHDは変わってるかもですね。
@@Droneaerialphotographer なるほどですねぇ…
ベイヤー配列の件は調べられているでしょうから、それ以外で色々考えた結果を書きます。正しいかどうかは分かりません。センサーはフォトダイオード(光を当てると電流を発生させる半導体素子)の集合体です。フォトダイオードが光を電流に変換し、ADコンバータでアナログ信号である電流をデジタル信号に変換し、その信号を画像処理エンジンで画像に変換しています。フォトダイオードは基本的には半導体のPN接合で、光により電子と正孔が生じることで電流が発生します。ただし使用時には常に電圧を付与する必要があり、わずかに電流が流れることになります。この暗電流が、光による電流に混ざることでノイズとなります。これは光が微弱になる暗所でノイズが増加する挙動と整合します。また検出可能な最小の信号、つまり最高感度は、暗電流と光による電流の識別が可能なレベルによって決定されます。暗電流の大きさは半導体の種類によって異なり、シリコンに比べてガリウムヒ素等は暗電流が少ないようです。また温度が上がると半導体の格子振動が増加し、熱励起による電子と正孔の生成量が増えるため暗電流が増えノイズが増加します。これがセンサーの冷却が必要な理由でしょう。ここでオーバーサンプリングについて考えてみます。フォトダイオードの面積が4倍になった(4Kから2Kに低画素化された)とすると、暗電流はフォトダイオードの面積に比例し、4倍に増加します。一方で低照度の場合、フォトダイオードが受ける光量も面積に比例し、4倍になります。結局のところ、センサーサイズを増加させたとて、低照度側の性能は変わらないように思います。一方で高照度側を考えてみます。フォトダイオードの面積が4倍になり、フォトダイオードが飽和する電流量も4倍となっています。4倍になった電流量をAD変換してデジタル信号にしなければなりません。AD変換回路は裏面照射センサーでも通常センサーでも、センサーと同じサイズで設計されています。つまり4倍の面積で、4倍の電流を処理しなければなりません。私はここに問題があるのではないかと考えています。ダイナミックレンジが4倍になるわけで、今まで10ビット(1024倍)であったAD変換回路を12ビット(4096倍)まで対応するようなことが必要です。ビット数増加に伴い回路の複雑さは指数関数的に増加していきます。またノイズ抑制には高精度な設計が必要になり、物理的なスペースが必要です。加えて消費電力も増加します。このあたりを踏まえると、回路の大きさは4倍では済まず、さらに拡大させる必要がある可能性があります。ですがスペースは限られています。仮にダイナミックレンジを2倍にしかできない場合を考えてみます。すると光量の大きい場合と光量の小さい場合のどちらかを犠牲にするわけですが、光量の大きい場合に合わせて設計するよりないと思います。その結果、低照度側はAD変換回路の性能(分解能)が低下することとなります。これは低照度でのノイズ増加やダイナミックレンジ低下につながります。まとめると以下となりまする・センサーサイズを4倍にしても、センサー性能は4倍に出来るとは限らない。・それならば小型センサー情報を統合して表示する方が高画質(高ダイナミックレンジ、低ノイズ)となる。なお、最初に書きましたがこれは私の推定であって、正確性は保証できないことに注意願います。実際のところはメーカーのセンサー技術者に聞くしかありませんが、絶対に教えてくれないと思います。
もう少し考えました。「大型のフォトダイオードを持つ低画素センサーでオーバーサンプリングを超える画質を実現するのは、技術的には可能かもしれませんが、コストや設計リソースの観点から合理的とは言えない」という点に注目する必要があります。1. センサー設計が別物になる大型のフォトダイオードを採用すると、1画素あたりの受光量が増えますが、それに伴い、回路設計やADコンバータの仕様が大きく変わり、既存の高画素センサー技術を流用することが難しくなる可能性があります。このため、低画素センサーは新規設計が必要で、設計コストが大幅に増加します。2. 市場規模と製造コストの不利現在のセンサー製造ラインや技術は、4K以上の高画素センサー向けに最適化されています。低画素センサーは市場規模が小さいため、量産効果が得られず、コストが割高になる可能性があります。3. オーバーサンプリングの合理性オーバーサンプリングは、既存の高画素センサー技術を活用して画質を向上させる手法であり、ノイズ低減や解像感向上を実現します。また、4KセンサーはフルHD以上の用途にも対応できる汎用性が高く、技術的にも経済的にもバランスが取れています。この画質を低画素センサーで超えるのは可能でも合理的ではないと考えます。結論として、大型のフォトダイオードを持つ低画素センサーは、大型天体望遠鏡のような一部の特殊用途を除けば、現実的な選択肢にはなりにくいと考えます。オーバーサンプリング技術が採用される背景には、こうした設計の難しさに加えた合理性があると思われます。
@@odekakeworld 結果綺麗になる…はイメージつくので…この考察があってることを願います!
うろ覚えのざっくり知識ですが・・そもそも、200万画素のセンサーの受光部自体は、白黒(明暗のみ)のセンサーで、フルカラーのセンサーが200万個入っているわけではない一つ一つのセンサーにはそれぞれにRGBのどれかのフィルターがついていて(原色フィルターの場合)、RGGBの方式タなら、RとBの輝度だけ検知できるセンサーが50万個、Gのセンサーが100万個並んでいるある番地のセンサーのカラー情報を得るには、自分の(RGBどれかの)輝度情報と、周囲のRGBの輝度情報から計算して(推測して)決めているなので200万画素しかないセンサーでは、200万画素分の本当の色は読み取れていないだったと思いますこれより4倍多い画素数のセンサーなら、そこそこ各画素の正しい色情報が得られそうに思います以下蛇足ですが昔勤務していたメーカーのあるカメラ製品では、解像度/色再現性を上げるために、白黒のセンサーを使って、光源の色をRGBの三色に素早く光らせて、一画面の画を作るのにRGB光源の3画面分の画を合成して出力する「面順次」という方式をとってました(物理的に数ミリ角のセンサーしか載せられないので)胃カメラの先端から見える光はチラチラちらついて見えて、カメラを早く動かすと画面の色がズレて見えるのがこの方式ですもちろん通常のビデオカメラの様に白色光源で一発撮りする同時式という製品もあります
@@ahosaka な、なるほど…!
画素数は印刷物に対して必要になると考えます。 写真屋さんのプリントは300dpi位なので、A3を印刷するには2000万画素ほどあれば足りますし、現実的には1200万画素クラスで印刷してもある程度の距離で鑑賞するので思ったほど違いはでないようです(近くまで寄って細かく見ればわかる部分もあるかとは思いますが)。例として、A3長辺420mmで2000万画素の長辺5472ドット(私の手持ちのコンデジ)、300dpiで印刷すると5472÷300×25=456>420 (面倒なので1インチは25mmにしてます)となり、A3を印刷するには十分なスペックとなります。動画は、画素数でなくフォーマットに対応しているかどうかで(画素数・オーバーサンプリングは売るためのスペック)、その中で撮影した映像画質を評価することかなと思いますが。
なるほどですね…それであると、5000万画素だから、動画がキレイになるわけじゃない…という感じなのかなぁ…
@@Ichi-Ryu.0222 カメラによりけりではないんでしょうか? よくSONYだとなんか立体感がないとか、スチルだと肌の色がSONYよりNIKONのほうがいいとかUA-camとかで見ますが。 まあNIKONの場合、動画の同時記録ができないから業務使用はされないかと。
@@hikari-gahakuなるほどですねぇ…では動画に限っては、画素は売りポイントにならないかも!
新コーナーおめでとうございます🎁素晴らしい議題ですね♥さすがです。ピクセルと画素数が基本的にどういぎ語という話ですけれども。同音異義語でしょうか? 読み方は同じだけど意味は違う 「橋」と「箸」同義語でしょうか? 同じ意味を持つ別の言葉 「大きい」と「巨大」文脈から今回は、同義語として解釈しました。私は完全に同義語とは言えないと考えます。ピクセルとは? 画像を拡大していったときに見える「小さな点」画素数とは? 1920×1080=2,073,600(約207万画素)の塊例えるならば、レンガとレンガの壁です。ピクセルと画素が同じですか?と聞かれれば同じと答えたと思います。終始言われいていたのは、玉の数って決まってるよね? HDだよ? て事は1920×1080ピクセル2073600だよ。玉と色について意識が行っていました、そして1つの色は1つの玉の中ではグラデーションにはならない。それはその通りグラデーションにはなりません。いくつかの玉でグラデーションを表現します。ua-cam.com/video/kgvLYo_ay2M/v-deo.htmlこの動画を144pで再生してください。モヤっとしてますか?色も変ですか?HDモニタに対して、56.25の枠を使って適当に近接の補間処理でグラデーションした結果だと考えています。カメラに画素数は必要なのか?HDは2073600だから、カメラって200万画素でよくない?そもそも200万個以上あっても意味なくない?私の答えとしては、使用目的によると考えます。細かいディテールが必要であれば、より多い画素が有利かと思います。データとしては割れてて4つある。4つの平均値を取って1個の色を作るから、より正確な色を出せるから画素数は必要なんだよと言われれば納得する。の話まず言いたいのは、そもそも、色の情報が適当という話です。1ピクセルの発光する色は決まってるよね? はい 決まってます。しかし、その発光する色が各社の補完処理ですよという話です。正確で完璧な色を発光したから綺麗ではなく。ノイズが減り全体的に滑らかで高品質なディテールを表現出来たから綺麗と感じるのでは無いかな?と考えています。オーバーサンプリングでノイズの軽減・細かいディテールの強調・エイリアシングの軽減デベイヤー処理で色の補完と滑らかさ・ディテールの再現・高解像度センサーとの相乗効果オーバーサンプリングとデベイヤー処理の組み合わせで高品質な画像や映像になるのかと考えます。余談ですが、カメラがセンサーを1ピクセル、または1/2ピクセルずつ動かしながら複数回撮影するペンタックス:Pixel Shift Resolution System や ソニー:Pixel Shift Multi Shooting などを使い高精度な色再現やディテールを求めて1億画素などを追い求めましたが普通に撮った1枚とノイズ以外の違いは分かりませんでした所詮合成だからなのか、本体・レンズの限界なのか。公式の動画や写真では違いが分かるのですが・・・
あ!ごめんなさい!同義語、同じ言葉という意味です!細かいディテールがほしいと画素が必要…ここがわからなくて…でも球の発光するクオリティに画素が必要というのであれば…少し納得です…
センサーの読み出す値は必ず真の値からランダムにずれます。厳密ではないかもしれませんが、これがノイズですね。平均をとると、この「ずれ」が小さくなります。正規分布の場合、サンプリングをn倍にすると平均値の分散は1/nになります。ですから、例えば10ピクセルから1ピクセルを作り出すと、ずれの分散が1/10になり、ノイズが少なくなるわけです。電圧計でも料理用のはかりでも、かならず複数回のサンプリングをして値を表示します。測定しても、すぐには値が表示されないでしょう?同じ難易度のテストを10回やると、個人の成績は上下するけれど、クラス全員の平均点はあまり変動しない、みたいな感じでしょうか。
サンプリングの数が多ければ真の値がでる…のですか?なるほど…平均値を取る?本当に?と思っています数学で言うと…それが1番怖い考え方…と教わっていて。10.10.1という数値の平均を取ると、かなりズレる…ので10を信用しよう!と言う考え方がありまして…1がそんなにずれないのが確定してるのかな…?
@@Ichi-Ryu.0222 正規分布の場合は上で書いた通りなんですが、例えば10回のサンプリングで、10が8回、1が2回測定されたら、10を採用、という処理もできますね。他にも例えば、10回のうち最大と最小を除いた8回分を平均とるとか、明らかな外れ値は除外するとか、そのあたりの数学的な処理はセンサーの特性から開発側が考えればいいんです。
@@でんぷん-t8q なるほど…ですね…
動画のアスペ比は16:9や17.1:9でセンサーの上下をクロップしているため、4Kならセンサーの画素数は約1000万画素必要になります。本来、記録する画素数とセンサーの画素数は同じ(ドットバイドット)が望ましいので動画専用機は低画素機になっています。近年ミラーレス一眼で写真と動画を両立するため画素数が増えてきました。センサーの読み出しが高速になり、映像エンジンも高性能になったため、オーバーサンプリングで高画素機でも動画撮影ができるようになりました。高画素は写真の大伸ばしやトリミングに有利ですが、画素ピッチが狭くなるためノイズが出やすくなります。動画メインなら低画素機のほうが映像も綺麗だし解像感も良いので、FX3などは理想的ですね。
@@kenbridge7454 そうですね!
どういう趣旨でこの動画を撮られたのかはわかりませんが、オーバーサンプリングについては大村さんが動画内で仰っていた通りです。1つのセンサーでは正確な色が読み込めないから複数のセンサーで読み込んだ情報から色を決めています。なので4K画像のオーバーサンプリングなら6Kあれば十分と言われているかと思います。これは視聴者に考えさせる為の動画でしょうか?なら次回から静観させていただこうかと思います。
@@AkiAkane あ!いえ!いろんな方からご意見をもらいたいと思い投稿している動画です!コメントありがとうございます!それって複数というのは、純粋に4倍から平均値を読み出すのですか??なぜ、1ピクだと正確に出せないのに…4ピクを平均化すると正確に出せるのでしょうか…そういうものなのでしょうか…4くらいだと平均値がぼやけそう…でも最後は4の平均を取って1ピクにするんですよね?
@@Ichi-Ryu.0222現在使われているセンサーは緑が感じやすいベイヤ構造になってます。なので他の色が読み取りにくい。緑が人間にとって感じやすいから、そういう構造になっています。なので複数のセンサから色情報を読み取ります。それを各メーカーの何たらエンジンで平均化する為、メーカー各社の色味が変わってくるのかと。でいかがでしょうか?
@ なるほど…それなんとなく納得です…
後、撮る方ではなく、視聴者側の方でディスプレイで最大値がHDと4K等があって”同じインチ数でもどちらもあるので、となるとドットの大きさ自体が変動”してるのではないかと思います。なのでそこらへんがあるんじゃないですか。知らんけどw
難しい事はわかりません。あくまで実体験の感覚です。カメラには2種類の役割があってまとめてしまったのでややこしくなってるかもですね。知ってると思いますが写真と動画で、カメラ有効画素数 最大約2・・・万画素と言う表記はおそらくですが写真の方へのメッセージが主かなと思ってます。
知ってるかもですが例えば写真を印刷した時、特に拡大印刷すると変わってくるのでそのへんの事かなとは思います。だから動画メインでしたら高画素数は重要ではなくなるかなと。
なんか昔テレビで市販されている小さいカメラ(ゴープロやったと・・)をテレビ局の業務用カメラを扱ってるプロの人がロケ中に使用して、本心かどうか知りませんがプロカメラマンが「画質業務用とそんな変わんないですね」って言ってたので衝撃が頭に残ってますw
動画は”動き”がメインで写真は”静止画”がメインなので画素数は主に写真の方へのメッセージかなと思います。
これは関係無いですが、動画1920×1280を1920×1280に変換しても問題無いが、4Kを1920×1280に変換すると白い輪郭のようなものが出て来たりしたので、もしか”ドットの色の表現”も4K及びHDは変わってるかもですね。
@@Droneaerialphotographer なるほどですねぇ…
ベイヤー配列の件は調べられているでしょうから、それ以外で色々考えた結果を書きます。
正しいかどうかは分かりません。
センサーはフォトダイオード(光を当てると電流を発生させる半導体素子)の集合体です。
フォトダイオードが光を電流に変換し、ADコンバータでアナログ信号である電流をデジタル信号に変換し、その信号を画像処理エンジンで画像に変換しています。
フォトダイオードは基本的には半導体のPN接合で、光により電子と正孔が生じることで電流が発生します。
ただし使用時には常に電圧を付与する必要があり、わずかに電流が流れることになります。
この暗電流が、光による電流に混ざることでノイズとなります。これは光が微弱になる暗所でノイズが増加する挙動と整合します。
また検出可能な最小の信号、つまり最高感度は、暗電流と光による電流の識別が可能なレベルによって決定されます。
暗電流の大きさは半導体の種類によって異なり、シリコンに比べてガリウムヒ素等は暗電流が少ないようです。
また温度が上がると半導体の格子振動が増加し、熱励起による電子と正孔の生成量が増えるため暗電流が増えノイズが増加します。これがセンサーの冷却が必要な理由でしょう。
ここでオーバーサンプリングについて考えてみます。
フォトダイオードの面積が4倍になった(4Kから2Kに低画素化された)とすると、暗電流はフォトダイオードの面積に比例し、4倍に増加します。
一方で低照度の場合、フォトダイオードが受ける光量も面積に比例し、4倍になります。
結局のところ、センサーサイズを増加させたとて、低照度側の性能は変わらないように思います。
一方で高照度側を考えてみます。フォトダイオードの面積が4倍になり、フォトダイオードが飽和する電流量も4倍となっています。
4倍になった電流量をAD変換してデジタル信号にしなければなりません。
AD変換回路は裏面照射センサーでも通常センサーでも、センサーと同じサイズで設計されています。
つまり4倍の面積で、4倍の電流を処理しなければなりません。
私はここに問題があるのではないかと考えています。
ダイナミックレンジが4倍になるわけで、今まで10ビット(1024倍)であったAD変換回路を12ビット(4096倍)まで対応するようなことが必要です。
ビット数増加に伴い回路の複雑さは指数関数的に増加していきます。
またノイズ抑制には高精度な設計が必要になり、物理的なスペースが必要です。
加えて消費電力も増加します。
このあたりを踏まえると、回路の大きさは4倍では済まず、さらに拡大させる必要がある可能性があります。
ですがスペースは限られています。仮にダイナミックレンジを2倍にしかできない場合を考えてみます。
すると光量の大きい場合と光量の小さい場合のどちらかを犠牲にするわけですが、光量の大きい場合に合わせて設計するよりないと思います。
その結果、低照度側はAD変換回路の性能(分解能)が低下することとなります。これは低照度でのノイズ増加やダイナミックレンジ低下につながります。
まとめると以下となりまする
・センサーサイズを4倍にしても、センサー性能は4倍に出来るとは限らない。
・それならば小型センサー情報を統合して表示する方が高画質(高ダイナミックレンジ、低ノイズ)となる。
なお、最初に書きましたがこれは私の推定であって、正確性は保証できないことに注意願います。
実際のところはメーカーのセンサー技術者に聞くしかありませんが、絶対に教えてくれないと思います。
もう少し考えました。
「大型のフォトダイオードを持つ低画素センサーでオーバーサンプリングを超える画質を実現するのは、技術的には可能かもしれませんが、コストや設計リソースの観点から合理的とは言えない」という点に注目する必要があります。
1. センサー設計が別物になる
大型のフォトダイオードを採用すると、1画素あたりの受光量が増えますが、それに伴い、回路設計やADコンバータの仕様が大きく変わり、既存の高画素センサー技術を流用することが難しくなる可能性があります。このため、低画素センサーは新規設計が必要で、設計コストが大幅に増加します。
2. 市場規模と製造コストの不利
現在のセンサー製造ラインや技術は、4K以上の高画素センサー向けに最適化されています。低画素センサーは市場規模が小さいため、量産効果が得られず、コストが割高になる可能性があります。
3. オーバーサンプリングの合理性
オーバーサンプリングは、既存の高画素センサー技術を活用して画質を向上させる手法であり、ノイズ低減や解像感向上を実現します。また、4KセンサーはフルHD以上の用途にも対応できる汎用性が高く、技術的にも経済的にもバランスが取れています。この画質を低画素センサーで超えるのは可能でも合理的ではないと考えます。
結論として、大型のフォトダイオードを持つ低画素センサーは、大型天体望遠鏡のような一部の特殊用途を除けば、現実的な選択肢にはなりにくいと考えます。オーバーサンプリング技術が採用される背景には、こうした設計の難しさに加えた合理性があると思われます。
@@odekakeworld 結果綺麗になる…はイメージつくので…この考察があってることを願います!
うろ覚えのざっくり知識ですが・・
そもそも、200万画素のセンサーの受光部自体は、白黒(明暗のみ)のセンサーで、フルカラーのセンサーが200万個入っているわけではない
一つ一つのセンサーにはそれぞれにRGBのどれかのフィルターがついていて(原色フィルターの場合)、RGGBの方式タなら、RとBの輝度だけ検知できるセンサーが50万個、Gのセンサーが100万個並んでいる
ある番地のセンサーのカラー情報を得るには、自分の(RGBどれかの)輝度情報と、周囲のRGBの輝度情報から計算して(推測して)決めている
なので200万画素しかないセンサーでは、200万画素分の本当の色は読み取れていない
だったと思います
これより4倍多い画素数のセンサーなら、そこそこ各画素の正しい色情報が得られそうに思います
以下蛇足ですが
昔勤務していたメーカーのあるカメラ製品では、解像度/色再現性を上げるために、白黒のセンサーを使って、光源の色をRGBの三色に素早く光らせて、一画面の画を作るのにRGB光源の3画面分の画を合成して出力する「面順次」という方式をとってました(物理的に数ミリ角のセンサーしか載せられないので)
胃カメラの先端から見える光はチラチラちらついて見えて、カメラを早く動かすと画面の色がズレて見えるのがこの方式です
もちろん通常のビデオカメラの様に白色光源で一発撮りする同時式という製品もあります
@@ahosaka な、なるほど…!
画素数は印刷物に対して必要になると考えます。 写真屋さんのプリントは300dpi位なので、A3を印刷するには2000万画素ほどあれば足りますし、現実的には1200万画素クラスで印刷してもある程度の距離で鑑賞するので思ったほど違いはでないようです(近くまで寄って細かく見ればわかる部分もあるかとは思いますが)。
例として、A3長辺420mmで2000万画素の長辺5472ドット(私の手持ちのコンデジ)、300dpiで印刷すると5472÷300×25=456>420 (面倒なので1インチは25mmにしてます)となり、A3を印刷するには十分なスペックとなります。
動画は、画素数でなくフォーマットに対応しているかどうかで(画素数・オーバーサンプリングは売るためのスペック)、その中で撮影した映像画質を評価することかなと思いますが。
なるほどですね…それであると、5000万画素だから、動画がキレイになるわけじゃない…という感じなのかなぁ…
@@Ichi-Ryu.0222 カメラによりけりではないんでしょうか? よくSONYだとなんか立体感がないとか、スチルだと肌の色がSONYよりNIKONのほうがいいとかUA-camとかで見ますが。 まあNIKONの場合、動画の同時記録ができないから業務使用はされないかと。
@@hikari-gahakuなるほどですねぇ…では動画に限っては、画素は売りポイントにならないかも!
新コーナーおめでとうございます🎁
素晴らしい議題ですね♥さすがです。
ピクセルと画素数が基本的にどういぎ語という話ですけれども。
同音異義語でしょうか? 読み方は同じだけど意味は違う 「橋」と「箸」
同義語でしょうか? 同じ意味を持つ別の言葉 「大きい」と「巨大」
文脈から今回は、同義語として解釈しました。
私は完全に同義語とは言えないと考えます。
ピクセルとは? 画像を拡大していったときに見える「小さな点」
画素数とは? 1920×1080=2,073,600(約207万画素)の塊
例えるならば、レンガとレンガの壁です。
ピクセルと画素が同じですか?と聞かれれば同じと答えたと思います。
終始言われいていたのは、玉の数って決まってるよね?
HDだよ? て事は1920×1080ピクセル2073600だよ。
玉と色について意識が行っていました、そして1つの色は1つの玉の中ではグラデーションにはならない。
それはその通りグラデーションにはなりません。いくつかの玉でグラデーションを表現します。
ua-cam.com/video/kgvLYo_ay2M/v-deo.html
この動画を144pで再生してください。モヤっとしてますか?色も変ですか?
HDモニタに対して、56.25の枠を使って適当に近接の補間処理でグラデーションした結果だと考えています。
カメラに画素数は必要なのか?
HDは2073600だから、カメラって200万画素でよくない?
そもそも200万個以上あっても意味なくない?
私の答えとしては、使用目的によると考えます。
細かいディテールが必要であれば、より多い画素が有利かと思います。
データとしては割れてて4つある。4つの平均値を取って1個の色を作るから、より正確な色を出せるから
画素数は必要なんだよと言われれば納得する。の話
まず言いたいのは、そもそも、色の情報が適当という話です。
1ピクセルの発光する色は決まってるよね? はい 決まってます。
しかし、その発光する色が各社の補完処理ですよという話です。
正確で完璧な色を発光したから綺麗ではなく。ノイズが減り全体的に滑らかで高品質なディテールを表現出来たから綺麗と感じるのでは無いかな?と考えています。
オーバーサンプリングでノイズの軽減・細かいディテールの強調・エイリアシングの軽減
デベイヤー処理で色の補完と滑らかさ・ディテールの再現・高解像度センサーとの相乗効果
オーバーサンプリングとデベイヤー処理の組み合わせで高品質な画像や映像になるのかと考えます。
余談ですが、カメラがセンサーを1ピクセル、または1/2ピクセルずつ動かしながら複数回撮影する
ペンタックス:Pixel Shift Resolution System や ソニー:Pixel Shift Multi Shooting などを使い
高精度な色再現やディテールを求めて1億画素などを追い求めましたが普通に撮った1枚とノイズ以外の違いは分かりませんでした
所詮合成だからなのか、本体・レンズの限界なのか。
公式の動画や写真では違いが分かるのですが・・・
あ!ごめんなさい!同義語、同じ言葉という意味です!
細かいディテールがほしいと画素が必要…ここがわからなくて…
でも球の発光するクオリティに画素が必要というのであれば…少し納得です…
センサーの読み出す値は必ず真の値からランダムにずれます。厳密ではないかもしれませんが、これがノイズですね。
平均をとると、この「ずれ」が小さくなります。正規分布の場合、サンプリングをn倍にすると平均値の分散は1/nになります。
ですから、例えば10ピクセルから1ピクセルを作り出すと、ずれの分散が1/10になり、ノイズが少なくなるわけです。
電圧計でも料理用のはかりでも、かならず複数回のサンプリングをして値を表示します。
測定しても、すぐには値が表示されないでしょう?
同じ難易度のテストを10回やると、個人の成績は上下するけれど、クラス全員の平均点はあまり変動しない、みたいな感じでしょうか。
サンプリングの数が多ければ真の値がでる…のですか?なるほど…平均値を取る?本当に?と思っています
数学で言うと…それが1番怖い考え方…と教わっていて。
10.10.1という数値の平均を取ると、かなりズレる…ので10を信用しよう!と言う考え方がありまして…1がそんなにずれないのが確定してるのかな…?
@@Ichi-Ryu.0222 正規分布の場合は上で書いた通りなんですが、例えば10回のサンプリングで、10が8回、1が2回測定されたら、10を採用、という処理もできますね。他にも例えば、10回のうち最大と最小を除いた8回分を平均とるとか、明らかな外れ値は除外するとか、そのあたりの数学的な処理はセンサーの特性から開発側が考えればいいんです。
@@でんぷん-t8q なるほど…ですね…
動画のアスペ比は16:9や17.1:9でセンサーの上下をクロップしているため、4Kならセンサーの画素数は約1000万画素必要になります。
本来、記録する画素数とセンサーの画素数は同じ(ドットバイドット)が望ましいので動画専用機は低画素機になっています。
近年ミラーレス一眼で写真と動画を両立するため画素数が増えてきました。
センサーの読み出しが高速になり、映像エンジンも高性能になったため、オーバーサンプリングで高画素機でも動画撮影ができるようになりました。
高画素は写真の大伸ばしやトリミングに有利ですが、画素ピッチが狭くなるためノイズが出やすくなります。
動画メインなら低画素機のほうが映像も綺麗だし解像感も良いので、FX3などは理想的ですね。
@@kenbridge7454 そうですね!
どういう趣旨でこの動画を撮られたのかはわかりませんが、オーバーサンプリングについては大村さんが動画内で仰っていた通りです。1つのセンサーでは正確な色が読み込めないから複数のセンサーで読み込んだ情報から色を決めています。なので4K画像のオーバーサンプリングなら6Kあれば十分と言われているかと思います。これは視聴者に考えさせる為の動画でしょうか?なら次回から静観させていただこうかと思います。
@@AkiAkane あ!いえ!いろんな方からご意見をもらいたいと思い投稿している動画です!
コメントありがとうございます!
それって複数というのは、純粋に4倍から平均値を読み出すのですか??
なぜ、1ピクだと正確に出せないのに…4ピクを平均化すると正確に出せるのでしょうか…そういうものなのでしょうか…4くらいだと平均値がぼやけそう…
でも最後は4の平均を取って1ピクにするんですよね?
@@Ichi-Ryu.0222現在使われているセンサーは緑が感じやすいベイヤ構造になってます。なので他の色が読み取りにくい。緑が人間にとって感じやすいから、そういう構造になっています。なので複数のセンサから色情報を読み取ります。それを各メーカーの何たらエンジンで平均化する為、メーカー各社の色味が変わってくるのかと。でいかがでしょうか?
@ なるほど…それなんとなく納得です…