Розмір відео: 1280 X 720853 X 480640 X 360
Показувати елементи керування програвачем
Автоматичне відтворення
Автоповтор
关于 片中提到的 “画面GAMMA / 灯光和虚拟空间亮度对齐”的问题,我可以提供解决方案,大概的思路就是用摄影中的测光仪校正物理灯光,然后再引擎中对齐还原亮度。 简单来说就是影视特效的lookdev流程。 如果需要帮助可以随时联系~
您說希望這條視頻能對我們有一些影響,坦白來說影響真是太大了!讓我看得簡直是有點瞠目結舌,同時也讚嘆科技進步的速度讓我們追的好辛苦,原來現在除了綠幕摳像之外,已經有往前跨了一大步了。我是你們頻道的忠實鐵粉,非常喜歡您每一次中肯而認真的講解,那一種認真的神情往往都感動了身為閱聽觀眾的我們,再次感謝你們為你們頻道所做的種種努力及帶給我們的專業知識
哈哈哈,我们公司正在做这个,这个ue有很多问题,底层问题成灾,大的逻辑是没有问题的,但是渲染问题太多了。我是vfx supervisor。其实这个方案的大逻辑是把后期的工作全部放到ue里完成,省的是时间,不省成本,而且对于导演与制片的项目把控能力要求极高,因为没有后期的修正工作了,完全靠前期来做。前期工作不是及其专业的团队,基本歇菜。小团队碰这个项目,没有完整的项目经验,基本死在沙滩上。工业光魔的星球大战那个项目是独家魔改版,不是现在各小团队用的ue的公版,ue的素材库基本在影视项目是没法用的,精度太低了。目前这个项目的大方向是好的,但是想法很丰满,显示很骨感。做这个项目需要两部分的人,1,非常高端的it部门,可以魔改ue底层代码。2,牛逼的影视制片,能把后期所有的问题预案全部压缩到前期用ue完成。最大限度压缩后期的工作。直拍不修改。
对,制作成本依然很高,好的3A游戏,美术成本就非常高,和以前比也便宜不了多少,这些虚拟场景,道具还是需要人来制作,或许以后有海量廉价优质资源,但是目前没有,独家制定的费用依然很贵,当然可以像横店一样,花巨资找顶尖团队做一些非常优秀的虚拟场景,然后自己拍完了然后出租,大家都这样,慢慢的生态就有了~~~
太打击人了,顿时被浇一桶冷水,哈哈
你好,終於看到有說人話的人了,目前我們公司就是專門搞UE底層代碼,還有編寫一些工具去改善流程。不過我們在香港這邊的影視人過份輕視UE這部份的難度,把錢都放在硬件資源,例如LED,機械臂之類的,用UE的全是3D動畫師(他們把UE當成Maya/blender類的軟件去理解),結果上千萬的硬件搞出來還不及別人綠幕的效果,也沒辦法導正他們的思維。現在是2024年了,UE一直更新,就一直在替它debug,有時舊的工具來到新版本莫名奇妙的壞了,又要把舊版本的代碼換過來再做連接,然後就老是被問為甚麼這麼多問題。
相机完全电控,从中间的控制器向两头分别渲染场景和控制相机,然后一个单独的渲染机专门围绕拍摄主体叠加一个绿环上去,这样就可以规避掉需要屏幕搭建过大过多的情况,只搭建拍摄所需的最小空间,可能1.5m半径就够(大致计算如果要完全干掉抠像和合成大概需要8-12米的半径),这样能依然保留主体光场和表演场景的优势,缺点是还是避免不了抠像和合成(但是因为只有一个高可预测色值,基本不会有啥明暗和颜色变化的绿环,抠像会容易非常多)
1.5-2米半径的小环屏+全电控的相机移动+围绕拍摄对象实时描边 这样的一个思路曼达洛人那个搞法还是太需要钞能力了,而且场景的泛用性其实不如这个思路
用LED幕还有一大优势就是LED可以提供环境光,高效稳定的提升特效的真实感。Tim的方案的虽然布光的难度和传统绿幕拍摄一摸一样,但做得好了可以辅助拍摄团队避免前期拍摄出现布错光之类的低级错误,提高拍摄效率,给演员VR眼镜可以帮助他们理解场景,而且有了拍摄时就录制好了的摄影机的动态信息,可以给后期特效团队剩下很多时间。不过我有一个疑问,你们没开光追,怎么匹配布光啊?
這讓我想起來 大約五年前就有參加過一場演講忘記哪國的講者分享了當時的一項新技術技術的詳細名稱已經不記得了內容是在拍攝的時候就將綠幕全面換成它們設計的印有特殊標記的灰色布幕然後用攝影機拍出來的畫面能夠透過背景的標記變化(類似於在綠幕上打十字記號的功能,選擇灰色應該是為了降低反射的綠光)即時運算出鏡頭動作以及去背並將去背後的畫面合成到3D場景內再輸出到監看螢幕上能達到跟這個影片一樣的效果 但是更迅速 流程也更簡便(不需要要在攝影機身上加裝追蹤器、場邊也不須擺設感測器、省下去背以及合成3D場景的步驟)如果有大大看到 知道那項技術的名稱請務必留個言 感謝
Tim:這期視頻有點不一樣。。。我信你個鬼,虛偽是每期視頻都不一樣。。。
阿泥妹飯 真实
为什么你会在这里?!
@@hengkokchua8654 老粉而已
故事才是核心/技術是為他們而服務......好棒的一句話...加油...
10:45 请激活WINDOWS😄
传统绿幕拍摄都可以实现UE4or5的效果与UE4or5的区别在于UE可以提前做好场景,并在背景上投屏展示,搭载系统实现现实相机实时联动虚拟场景,能解决高昂的渲染以及镜头不完美的各种返工成本。 与传统绿幕跟踪拍摄方案的区别是大幅度降低制作成本,比如当年的“少年奇幻漂流记”的特效团队一样,当他们领奖的时候公司已经宣告彻底破产,这都与返工带来的高昂的制作及渲染成本带来的压力。 而UE系统彻底改变了这个局面,但是局限也是很大的,硬件成本,拍摄镜头的局限等等。,期待更新的革命。
我觉得主要这项技术是为了演员身上的投影和光效实时与特效匹配 这个才是重点 卢卡斯他们用的超大环绕LED就跟以前拍行进车玻璃反光是一个思路 绿幕抠图反而和它思路不对了
镜头内负责背景环境,镜头外负责反射
稍微查了一下,国内做VR环幕的公司还不少,很多体验馆都在用,往上找到个报价6W左右,不过估计大多数都是投影机方案,亮度和对比度不是很理想
Tim你们这个系统绝对值好几篇核心啊,太棒了。
我在Linux里用Kinect、VTK包和自己3D打印的彩色小球及支架对室内无人机进行位置和状态跟踪。你们可以类似的方法,试试用XBee或类似的IoT设备进行相机室内定位,还不用担心被遮挡的问题。同样对照明灯具加装IoT定位和强度控制器,就能实时计算并给出被摄物应有光照
kinect不是光学的吗?怎么做到不遮挡?
看样子横店10年后就要关门了
感谢飓风给我们带来的科普,让我知道了现在的高科技前沿
c4d中通过摄像机反求,把绿幕人物放入虚拟场景中,效果也挺好。
Cinematography Database的老哥好像就一直在搞这个,越来越看不懂了
想了解特效的各種觀念,可以去看The VES Handbook of Visual Effects: Industry Standard VFX Practices and Procedures這本,目前最新是第三版,非常適合治療失眠
价值在几百甚至几千万美金的拍摄设备就在于有很多技术难点,看是很简单,但这都是需要时间和人力(大量),乃至于整个地球确实现在只有美国做到,虽然说那些R&D人才就几个,他们也只是每天工作八小时,每天重复的工作,但就是市场决定产品(产生&创造)
现实摄影机拍摄现实场景,带动虚拟摄像机拍摄出虚拟引擎中的画面,然后将绿幕扣掉,把现实中的人物场景与虚拟场景中的画面合成,生成最终的合成画面。这是需要后期扣绿幕+合成的一个步骤,但为什么监控设备上直接就显示出了合成后的画面呢
谢谢 一直在找这方面的知识
UE4光追還不是很好,等UE5會有一個很好的提升,找素材也可以用Bridge,裡面都是真實掃描的素材
请多做些这方面的节目,太有趣了!谢谢
技术是好,一般的想实际应用差得多了,LED和灯光是基础,这个不具备效果就差远了。别看老外拍的好,人家可不是用个vive跟踪器就拍了的,这玩意几十平的运动范围,你跟拍试试,想都别想了。定位有了,跟踪有了,可是最重要的平稳没有,画面不够丝滑,绑定了vive还得蓝图做稳定,视频中差了这一步。还有最重要的,想拍大场景,想拍长镜头,影棚也得跟得上,视频中的机库,理论上面积有多大你影棚就得有多大,想要大场景下的真实,那就是要跟场景面积接近。总之,拍拍就知道了。
LED可以为角色提供照明和反射,绿幕就差了点意思。😜Low版虚拟拍摄还是很强的
还是没有直接合成好 人物如果涉及到影子反射等合成效果你很难处理的好 而在传统3D软件里面二次合成的话要好处理的多 硬件也没有太多门槛
实时绿幕抠像貌似ue确实还是没法解决好,有知道比较好的解决方法的,可否留言告诉我们一下
灯光肯定是个大问题,这就相当于抛弃了大部分的传统的布光规则,光源和环形屏幕之间的光照关系肯定比传统布光复杂好几倍。
现场灯光是可以和ue里的是可以做到进行数据传送的
感谢Tim给我们揭示“虚拟拍摄” - 影视制作的未来!
可以推给拍摄修仙小说的影视化拍摄团队。。。感觉会省很多的成本。。。重点是可以重复(稍作修改)利用。
这样给做特效的人员压力 ,功能工作量就会少很多. 导演也能把主要精力放在拍戏上
Tim需要一个lookdev方案来统一虚拟和现实,具体方案可以参考19年GDC ua-cam.com/video/70uNXZbUJVE/v-deo.html
相当技术流,太喜欢了,狂赞!
国内的话,深圳坪山也有类似led环绕大屏了,期待探班评测~~~
前两天看到一个人在搞unreal虚拟演唱会,今天又看到你在搞这个,看来我也得研究研究unreal了
哟系,等于是做了个巨型的VR眼镜,摄影机等效於眼睛,确实是不错的想法,用游戏引擎来驱动3D场景,从短期来看投资巨大,但是从长期来看,3D场景的可重复利用率比建影视城这类实体场景来说,要高很多,反而降低了成本
這樣子的資金成本,又是初期測試技術,一開始沒辦法做到最好,可以理解。雖然目前還不夠完美,期待之後改進後的版本。
未来如果环形屏幕成为手机一样的刚需,岂不是在家就可以云游世界。意识瞬息千里。
这种虚拟拍摄是影视拍摄发展的新路径但不是最终路径,理论上,当渲染水平能和现实媲美时,演员戴上动捕面捕设备在虚拟世界的虚拟镜头前演戏比这种方式更节省高效
可惜有个关键技术节点,实时的绿幕环渲染,有这个的话,大概硬件能压到80-100万内
这个想法就是一个奇异点,未来不可限量。
看起來要入門有點難度感,但很好玩的樣子
16年那会vive刚出来的时候 用游戏输出分层 手柄定位配合摄像机 试过 还得配采集卡 配合obs 费劲死了
在技術前沿端飆車,佩服。
佩服你的信念
人怎么和场景交互(就是人在沙漠走,有灰尘;人在水里游泳,有波浪 这些)
人周围一圈实景,led做背景
Unreal 好像出到5了,更多技術上的解封印,影視人真的不能再滿足於現在的工作流必須要精進了期待未來影視行業能讓導演編劇更多空間發揮,但製作成本尤其是時間成本依然不會增加甚至更短~
設計一個地形一棟宏偉建築物就夠耗時間、人力了,還有很多細節要處理,沒有想像中美好和簡單。
MonstAR Boo 要建模的確沒有想像中簡單,但是這些東西很多都是可重複使用,甚至有些可以購買商用款等到素材 技術相對成熟後,我相信比起搭建場景應該是可以省下不少成本時間的
@@Shon0621 建模只是一部分,還有很多東西要處理的,不然早就可以在多年前實行了。
@@monstarboo4546 恩恩,我也非專業只懂一些皮毛,所以就只能期待未來能把更多的不可行化為日常處理,感謝一起參與討論~~
@@Shon0621 😉
厉害了!点赞!
给你的思考方向点赞。
虽然不知道准不准确,我知道这是在虚幻引擎下操作。但这个技术是否跟卡梅隆当时拍摄阿凡达自己所创造的技术有关?
你这个叫虚拟演播厅噗哈哈哈……和虚拟拍摄是两回事。其实个人感觉虚拟拍摄最大的难题主要还是保证渲染的实时性,完全不能卡顿,其中就包括渲染不能卡顿和追踪不能卡顿,其实就现有的技术条件确实非常困难,这么贵也是这个原因,否则这个将会是非常理想的解决方案。不过我比较好奇的是,因为前景背景被拍到同一层上,成了实拍镜头,那后期的局限也就非常大了,如果要合成怎么办
@遲延丼CD 那个和他们这个不一样,现在视频里的是虚拟摄像机+绿幕合成,
终于把人物肤色调好饱和度了 之前的视频人物都偏白
不过这个项目实际的结果还是绿幕合成,所以产出的效果还是有问题的。如果是考虑成本的话,可以用4台小米激光电视来拼接一个180度的半环幕。
那如果有现场灯光可以解决吗,对投影不是很懂
赞👍我看了几遍这个电影🎬
环绕LED是很贵,可以用曲面显示器拍场景,绿幕拍人物动作,然后缩放合成吗?
大佬怎么没发天问1号发射的呢。难道是画质太好有泄密风险🤪
b站发了
同问,B站没得大会员看不了4K
绿幕还是有硬伤,边缘及阴影我无法在虚幻里获得很好的效果,看文档说是要嵌套使用才能出好效果。内视应该是最好解决方法,虚拟现实灯光可以联动,但摄像机焦距光圈哪位知道如何联动,有看到在镜头上也绑个track,但总觉得这不算个解决方法,不知道有谁知道如何把焦距光圈数据传入ue4
0:43 嗯我知道. 在"走廊团队"看过他们讲解. Epic也非常积极推广虚幻引擎的新用法。说白了就是镜头视角的mixed reality技术。
新的拍攝方式?影视飓风示範的只是20年前電視台早已在用的虛擬棚拍攝法。這與影片前段的環形背景實拍是兩種不同技術及應用。
同意,不过虚幻让这种二十年前的技术更自由了,真正改变行业的是你说的那个另外一种技术
如果人物直接通过建模在电影里面直接生成,拍摄的时候直接捕捉动作表情就好了。环形LED只是实时让你看到电影场景方便演员发挥。
所以你之前做一堆實體模型真的磨手藝 但是數位模型可以看的更近更細更磨
我之前算过,做到有效的话 硬件成本(不算开发)大概需要400-450万
viive+led,应该不要这么多吧,当然vive要求不能太高,p8000/genlock设备什么的20-30万应该可以了
能拍出合成畫面和拍出質量是相差好一段距離的,不同廠牌型號的鏡頭特性與參數都需要被完整還原呈現。 VR AR的軟硬體拍攝需求可以詢問我,完整的Total Solution。
灯光师技能有很大提升空间啊,哈哈
建议对此有兴趣的是否组个群什么的,共同促进学习。国内我所知道上海及浙江有公司已经做得很好了
上海已经有公司在做了,已经拍好几条成功案例
哪家公司在做
@@roowaa7839 量子新橙
@遲延丼CD 对对对,哈哈哈
LED幕太贵的话我可以帮你们做用投影机拼接的#3Dmaping,系统
我是你们的头条和这里的双端粉丝哦。
拍这个不能恋用普通单反相机或手机 是吗?
unreal 5渲染引擎开始使用的话我相信我们会分不出真假了😂
这套系统 小的用不到 大 的不会用 只是一个理论可以看看
前景很广,我做过三维实景建模,能听懂一点你说的。
5:25 右下角,激活windows
你使用的这套方法,4年前已经开始使用了。
就这!!是的,早就有了,但是到现刚有便宜的解决方案!
虚拟焦距没有调好吧?焦距在人身上为啥背景也那么清晰呢?
你说的这些一个多月前就在Insider看过了
這個技術是未來的發展趨勢,我也在琢磨中
同琢磨中
現在有解了嗎?
真的不一樣 是真的不一樣
每次都能学到很多东西
世界( )大謊言:1. 小翔哥不吃海鮮2. Tim:「這期視頻會稍微一點不一樣」
这绝对是未来的方向
私以为,为什么好莱坞不用绿幕而用LED,因为LED技术的日新月异,在摄影机拍摄的时候也可以完美的模拟出现实的背景,那么给被拍摄的人物给到的环境光也是真实的。不用再怎样去打环境光,这样拍摄的光源也会更加真实,为什么假,主要就是光线看着很假。很难将被拍摄人物和背景融合进去
已经不错啦!目前在内地华人熟懂这个不是太多, 你们其实可以联系 Cinematography Database 跟他合作一集。期待下期的节目更加精彩!ua-cam.com/video/kFBha5BE38k/v-deo.html 样片
这个技术我们在上一年年末已经ok了 然后我们已经可以拿来做直播啦 ~~地标在广州
有样片可以看一下效果吗?同是广州
希望学习交流一下
@@damaomai2089 可以啊 微信18668307205
Awesome!
黑客帝国,神,随意改变场景
这个设备可能需要得有点多吧?
感觉跟蜘蛛侠里的那个反派一样,搞一大堆投影设备就可以模拟现实了
期待能在这里也看到4K的胖五~
环境光融合的太差了,这种绿布扣背景只适合演播室这种studio场景,光源和环境光稳定。 如果想搞室外复杂光影的,只能上环形荧幕了。
视频一如既往的👍,但是有个小问题,每一次看飓风的视频,tim的嘴型和音轨好像总是对不上,有种错觉是后期配音。或者看以前译制片的感觉。
还有一双无处安放的手
what a beautiful future.
要不要考虑未来与Gamker合作😁
请问那种现实场景,虚拟人物又是如何拍的?
XR 现在有了
erm 我好像每一期视屏都会听到:“这一期视屏有点不一样”😂
根据摩尔定律,cpu和显卡技术却快到瓶颈了~
瓶頸的是Intel而已
沒有一個顯卡或CPU不行,那就二個,三個,四個…
不错
加油!
Tim,电脑windows没有激活啊,哈哈
关于 片中提到的 “画面GAMMA / 灯光和虚拟空间亮度对齐”的问题,我可以提供解决方案,大概的思路就是用摄影中的测光仪校正物理灯光,然后再引擎中对齐还原亮度。 简单来说就是影视特效的lookdev流程。 如果需要帮助可以随时联系~
您說希望這條視頻能對我們有一些影響,坦白來說影響真是太大了!讓我看得簡直是有點瞠目結舌,同時也讚嘆科技進步的速度讓我們追的好辛苦,原來現在除了綠幕摳像之外,已經有往前跨了一大步了。我是你們頻道的忠實鐵粉,非常喜歡您每一次中肯而認真的講解,那一種認真的神情往往都感動了身為閱聽觀眾的我們,再次感謝你們為你們頻道所做的種種努力及帶給我們的專業知識
哈哈哈,我们公司正在做这个,这个ue有很多问题,底层问题成灾,大的逻辑是没有问题的,但是渲染问题太多了。我是vfx supervisor。其实这个方案的大逻辑是把后期的工作全部放到ue里完成,省的是时间,不省成本,而且对于导演与制片的项目把控能力要求极高,因为没有后期的修正工作了,完全靠前期来做。前期工作不是及其专业的团队,基本歇菜。小团队碰这个项目,没有完整的项目经验,基本死在沙滩上。工业光魔的星球大战那个项目是独家魔改版,不是现在各小团队用的ue的公版,ue的素材库基本在影视项目是没法用的,精度太低了。目前这个项目的大方向是好的,但是想法很丰满,显示很骨感。做这个项目需要两部分的人,1,非常高端的it部门,可以魔改ue底层代码。2,牛逼的影视制片,能把后期所有的问题预案全部压缩到前期用ue完成。最大限度压缩后期的工作。直拍不修改。
对,制作成本依然很高,好的3A游戏,美术成本就非常高,和以前比也便宜不了多少,这些虚拟场景,道具还是需要人来制作,或许以后有海量廉价优质资源,但是目前没有,独家制定的费用依然很贵,当然可以像横店一样,花巨资找顶尖团队做一些非常优秀的虚拟场景,然后自己拍完了然后出租,大家都这样,慢慢的生态就有了~~~
太打击人了,顿时被浇一桶冷水,哈哈
你好,終於看到有說人話的人了,目前我們公司就是專門搞UE底層代碼,還有編寫一些工具去改善流程。不過我們在香港這邊的影視人過份輕視UE這部份的難度,把錢都放在硬件資源,例如LED,機械臂之類的,用UE的全是3D動畫師(他們把UE當成Maya/blender類的軟件去理解),結果上千萬的硬件搞出來還不及別人綠幕的效果,也沒辦法導正他們的思維。
現在是2024年了,UE一直更新,就一直在替它debug,有時舊的工具來到新版本莫名奇妙的壞了,又要把舊版本的代碼換過來再做連接,然後就老是被問為甚麼這麼多問題。
相机完全电控,从中间的控制器向两头分别渲染场景和控制相机,然后一个单独的渲染机专门围绕拍摄主体叠加一个绿环上去,这样就可以规避掉需要屏幕搭建过大过多的情况,只搭建拍摄所需的最小空间,可能1.5m半径就够(大致计算如果要完全干掉抠像和合成大概需要8-12米的半径),这样能依然保留主体光场和表演场景的优势,缺点是还是避免不了抠像和合成(但是因为只有一个高可预测色值,基本不会有啥明暗和颜色变化的绿环,抠像会容易非常多)
1.5-2米半径的小环屏+全电控的相机移动+围绕拍摄对象实时描边 这样的一个思路
曼达洛人那个搞法还是太需要钞能力了,而且场景的泛用性其实不如这个思路
用LED幕还有一大优势就是LED可以提供环境光,高效稳定的提升特效的真实感。Tim的方案的虽然布光的难度和传统绿幕拍摄一摸一样,但做得好了可以辅助拍摄团队避免前期拍摄出现布错光之类的低级错误,提高拍摄效率,给演员VR眼镜可以帮助他们理解场景,而且有了拍摄时就录制好了的摄影机的动态信息,可以给后期特效团队剩下很多时间。不过我有一个疑问,你们没开光追,怎么匹配布光啊?
這讓我想起來 大約五年前就有參加過一場演講
忘記哪國的講者分享了當時的一項新技術
技術的詳細名稱已經不記得了
內容是在拍攝的時候就將綠幕全面換成它們設計的印有特殊標記的灰色布幕
然後用攝影機拍出來的畫面能夠透過背景的標記變化
(類似於在綠幕上打十字記號的功能,選擇灰色應該是為了降低反射的綠光)
即時運算出鏡頭動作以及去背
並將去背後的畫面合成到3D場景內
再輸出到監看螢幕上
能達到跟這個影片一樣的效果 但是更迅速 流程也更簡便
(不需要要在攝影機身上加裝追蹤器、場邊也不須擺設感測器、省下去背以及合成3D場景的步驟)
如果有大大看到 知道那項技術的名稱
請務必留個言 感謝
Tim:這期視頻有點不一樣。。。
我信你個鬼,虛偽
是每期視頻都不一樣。。。
阿泥妹飯 真实
为什么你会在这里?!
@@hengkokchua8654 老粉而已
故事才是核心/技術是為他們而服務......好棒的一句話...加油...
10:45 请激活WINDOWS😄
传统绿幕拍摄都可以实现UE4or5的效果与UE4or5的区别在于UE可以提前做好场景,并在背景上投屏展示,搭载系统实现现实相机实时联动虚拟场景,能解决高昂的渲染以及镜头不完美的各种返工成本。 与传统绿幕跟踪拍摄方案的区别是大幅度降低制作成本,比如当年的“少年奇幻漂流记”的特效团队一样,当他们领奖的时候公司已经宣告彻底破产,这都与返工带来的高昂的制作及渲染成本带来的压力。 而UE系统彻底改变了这个局面,但是局限也是很大的,硬件成本,拍摄镜头的局限等等。,期待更新的革命。
我觉得主要这项技术是为了演员身上的投影和光效实时与特效匹配 这个才是重点 卢卡斯他们用的超大环绕LED就跟以前拍行进车玻璃反光是一个思路 绿幕抠图反而和它思路不对了
镜头内负责背景环境,镜头外负责反射
稍微查了一下,国内做VR环幕的公司还不少,很多体验馆都在用,往上找到个报价6W左右,不过估计大多数都是投影机方案,亮度和对比度不是很理想
Tim你们这个系统绝对值好几篇核心啊,太棒了。
我在Linux里用Kinect、VTK包和自己3D打印的彩色小球及支架对室内无人机进行位置和状态跟踪。你们可以类似的方法,试试用XBee或类似的IoT设备进行相机室内定位,还不用担心被遮挡的问题。同样对照明灯具加装IoT定位和强度控制器,就能实时计算并给出被摄物应有光照
kinect不是光学的吗?怎么做到不遮挡?
看样子横店10年后就要关门了
感谢飓风给我们带来的科普,让我知道了现在的高科技前沿
c4d中通过摄像机反求,把绿幕人物放入虚拟场景中,效果也挺好。
Cinematography Database的老哥好像就一直在搞这个,越来越看不懂了
想了解特效的各種觀念,可以去看The VES Handbook of Visual Effects: Industry Standard VFX Practices and Procedures這本,目前最新是第三版,非常適合治療失眠
价值在几百甚至几千万美金的拍摄设备就在于有很多技术难点,看是很简单,但这都是需要时间和人力(大量),乃至于整个地球确实现在只有美国做到,虽然说那些R&D人才就几个,他们也只是每天工作八小时,每天重复的工作,但就是市场决定产品(产生&创造)
现实摄影机拍摄现实场景,带动虚拟摄像机拍摄出虚拟引擎中的画面,然后将绿幕扣掉,把现实中的人物场景与虚拟场景中的画面合成,生成最终的合成画面。这是需要后期扣绿幕+合成的一个步骤,但为什么监控设备上直接就显示出了合成后的画面呢
谢谢 一直在找这方面的知识
UE4光追還不是很好,等UE5會有一個很好的提升,找素材也可以用Bridge,裡面都是真實掃描的素材
请多做些这方面的节目,太有趣了!谢谢
技术是好,一般的想实际应用差得多了,LED和灯光是基础,这个不具备效果就差远了。别看老外拍的好,人家可不是用个vive跟踪器就拍了的,这玩意几十平的运动范围,你跟拍试试,想都别想了。定位有了,跟踪有了,可是最重要的平稳没有,画面不够丝滑,绑定了vive还得蓝图做稳定,视频中差了这一步。还有最重要的,想拍大场景,想拍长镜头,影棚也得跟得上,视频中的机库,理论上面积有多大你影棚就得有多大,想要大场景下的真实,那就是要跟场景面积接近。总之,拍拍就知道了。
LED可以为角色提供照明和反射,绿幕就差了点意思。😜Low版虚拟拍摄还是很强的
还是没有直接合成好 人物如果涉及到影子反射等合成效果你很难处理的好 而在传统3D软件里面二次合成的话要好处理的多 硬件也没有太多门槛
实时绿幕抠像貌似ue确实还是没法解决好,有知道比较好的解决方法的,可否留言告诉我们一下
灯光肯定是个大问题,这就相当于抛弃了大部分的传统的布光规则,光源和环形屏幕之间的光照关系肯定比传统布光复杂好几倍。
现场灯光是可以和ue里的是可以做到进行数据传送的
感谢Tim给我们揭示“虚拟拍摄” - 影视制作的未来!
可以推给拍摄修仙小说的影视化拍摄团队。。。感觉会省很多的成本。。。重点是可以重复(稍作修改)利用。
这样给做特效的人员压力 ,功能工作量就会少很多. 导演也能把主要精力放在拍戏上
Tim需要一个lookdev方案来统一虚拟和现实,具体方案可以参考19年GDC ua-cam.com/video/70uNXZbUJVE/v-deo.html
相当技术流,太喜欢了,狂赞!
国内的话,深圳坪山也有类似led环绕大屏了,期待探班评测~~~
前两天看到一个人在搞unreal虚拟演唱会,今天又看到你在搞这个,看来我也得研究研究unreal了
哟系,等于是做了个巨型的VR眼镜,摄影机等效於眼睛,确实是不错的想法,用游戏引擎来驱动3D场景,从短期来看投资巨大,但是从长期来看,3D场景的可重复利用率比建影视城这类实体场景来说,要高很多,反而降低了成本
這樣子的資金成本,又是初期測試技術,一開始沒辦法做到最好,可以理解。
雖然目前還不夠完美,期待之後改進後的版本。
未来如果环形屏幕成为手机一样的刚需,岂不是在家就可以云游世界。意识瞬息千里。
这种虚拟拍摄是影视拍摄发展的新路径但不是最终路径,理论上,当渲染水平能和现实媲美时,演员戴上动捕面捕设备在虚拟世界的虚拟镜头前演戏比这种方式更节省高效
可惜有个关键技术节点,实时的绿幕环渲染,有这个的话,大概硬件能压到80-100万内
这个想法就是一个奇异点,未来不可限量。
看起來要入門有點難度感,但很好玩的樣子
16年那会vive刚出来的时候 用游戏输出分层 手柄定位配合摄像机 试过 还得配采集卡 配合obs 费劲死了
在技術前沿端飆車,佩服。
佩服你的信念
人怎么和场景交互(就是人在沙漠走,有灰尘;人在水里游泳,有波浪 这些)
人周围一圈实景,led做背景
Unreal 好像出到5了,更多技術上的解封印,影視人真的不能再滿足於現在的工作流必須要精進了
期待未來影視行業能讓導演編劇更多空間發揮,但製作成本尤其是時間成本依然不會增加甚至更短~
設計一個地形一棟宏偉建築物就夠耗時間、人力了,還有很多細節要處理,沒有想像中美好和簡單。
MonstAR Boo 要建模的確沒有想像中簡單,但是這些東西很多都是可重複使用,甚至有些可以購買商用款
等到素材 技術相對成熟後,我相信比起搭建場景應該是可以省下不少成本時間的
@@Shon0621 建模只是一部分,還有很多東西要處理的,不然早就可以在多年前實行了。
@@monstarboo4546 恩恩,我也非專業只懂一些皮毛,所以就只能期待未來能把更多的不可行化為日常處理,感謝一起參與討論~~
@@Shon0621 😉
厉害了!点赞!
给你的思考方向点赞。
虽然不知道准不准确,我知道这是在虚幻引擎下操作。但这个技术是否跟卡梅隆当时拍摄阿凡达自己所创造的技术有关?
你这个叫虚拟演播厅噗哈哈哈……和虚拟拍摄是两回事。其实个人感觉虚拟拍摄最大的难题主要还是保证渲染的实时性,完全不能卡顿,其中就包括渲染不能卡顿和追踪不能卡顿,其实就现有的技术条件确实非常困难,这么贵也是这个原因,否则这个将会是非常理想的解决方案。
不过我比较好奇的是,因为前景背景被拍到同一层上,成了实拍镜头,那后期的局限也就非常大了,如果要合成怎么办
@遲延丼CD 那个和他们这个不一样,现在视频里的是虚拟摄像机+绿幕合成,
终于把人物肤色调好饱和度了 之前的视频人物都偏白
不过这个项目实际的结果还是绿幕合成,所以产出的效果还是有问题的。如果是考虑成本的话,可以用4台小米激光电视来拼接一个180度的半环幕。
那如果有现场灯光可以解决吗,对投影不是很懂
赞👍我看了几遍这个电影🎬
环绕LED是很贵,可以用曲面显示器拍场景,绿幕拍人物动作,然后缩放合成吗?
大佬怎么没发天问1号发射的呢。难道是画质太好有泄密风险🤪
b站发了
同问,B站没得大会员看不了4K
绿幕还是有硬伤,边缘及阴影我无法在虚幻里获得很好的效果,看文档说是要嵌套使用才能出好效果。内视应该是最好解决方法,虚拟现实灯光可以联动,但摄像机焦距光圈哪位知道如何联动,有看到在镜头上也绑个track,但总觉得这不算个解决方法,不知道有谁知道如何把焦距光圈数据传入ue4
0:43 嗯我知道. 在"走廊团队"看过他们讲解. Epic也非常积极推广虚幻引擎的新用法。说白了就是镜头视角的mixed reality技术。
新的拍攝方式?
影视飓风示範的只是20年前電視台早已在用的虛擬棚拍攝法。
這與影片前段的環形背景實拍是兩種不同技術及應用。
同意,不过虚幻让这种二十年前的技术更自由了,真正改变行业的是你说的那个另外一种技术
如果人物直接通过建模在电影里面直接生成,拍摄的时候直接捕捉动作表情就好了。环形LED只是实时让你看到电影场景方便演员发挥。
所以你之前做一堆實體模型真的磨手藝 但是數位模型可以看的更近更細更磨
我之前算过,做到有效的话 硬件成本(不算开发)大概需要400-450万
viive+led,应该不要这么多吧,当然vive要求不能太高,p8000/genlock设备什么的20-30万应该可以了
能拍出合成畫面和拍出質量是相差好一段距離的,不同廠牌型號的鏡頭特性與參數都需要被完整還原呈現。 VR AR的軟硬體拍攝需求可以詢問我,完整的Total Solution。
灯光师技能有很大提升空间啊,哈哈
建议对此有兴趣的是否组个群什么的,共同促进学习。国内我所知道上海及浙江有公司已经做得很好了
上海已经有公司在做了,已经拍好几条成功案例
哪家公司在做
@@roowaa7839 量子新橙
@遲延丼CD 对对对,哈哈哈
LED幕太贵的话我可以帮你们做用投影机拼接的#3Dmaping,系统
我是你们的头条和这里的双端粉丝哦。
拍这个不能恋用普通单反相机或手机 是吗?
unreal 5渲染引擎开始使用的话我相信我们会分不出真假了😂
这套系统 小的用不到 大 的不会用 只是一个理论可以看看
前景很广,我做过三维实景建模,能听懂一点你说的。
5:25
右下角,激活windows
你使用的这套方法,4年前已经开始使用了。
就这!!
是的,早就有了,但是到现刚有便宜的解决方案!
虚拟焦距没有调好吧?焦距在人身上为啥背景也那么清晰呢?
你说的这些一个多月前就在Insider看过了
這個技術是未來的發展趨勢,我也在琢磨中
同琢磨中
現在有解了嗎?
真的不一樣 是真的不一樣
每次都能学到很多东西
世界( )大謊言:
1. 小翔哥不吃海鮮
2. Tim:「這期視頻會稍微一點不一樣」
这绝对是未来的方向
私以为,为什么好莱坞不用绿幕而用LED,因为LED技术的日新月异,在摄影机拍摄的时候也可以完美的模拟出现实的背景,那么给被拍摄的人物给到的环境光也是真实的。不用再怎样去打环境光,这样拍摄的光源也会更加真实,为什么假,主要就是光线看着很假。很难将被拍摄人物和背景融合进去
已经不错啦!目前在内地华人熟懂这个不是太多, 你们其实可以联系 Cinematography Database 跟他合作一集。期待下期的节目更加精彩!
ua-cam.com/video/kFBha5BE38k/v-deo.html 样片
这个技术我们在上一年年末已经ok了 然后我们已经可以拿来做直播啦 ~~地标在广州
有样片可以看一下效果吗?同是广州
希望学习交流一下
@@damaomai2089 可以啊 微信18668307205
Awesome!
黑客帝国,神,随意改变场景
这个设备可能需要得有点多吧?
感觉跟蜘蛛侠里的那个反派一样,搞一大堆投影设备就可以模拟现实了
期待能在这里也看到4K的胖五~
环境光融合的太差了,这种绿布扣背景只适合演播室这种studio场景,光源和环境光稳定。 如果想搞室外复杂光影的,只能上环形荧幕了。
视频一如既往的👍,但是有个小问题,每一次看飓风的视频,tim的嘴型和音轨好像总是对不上,有种错觉是后期配音。或者看以前译制片的感觉。
还有一双无处安放的手
what a beautiful future.
要不要考虑未来与Gamker合作😁
请问那种现实场景,虚拟人物又是如何拍的?
XR 现在有了
erm 我好像每一期视屏都会听到:“这一期视屏有点不一样”😂
根据摩尔定律,cpu和显卡技术却快到瓶颈了~
瓶頸的是Intel而已
沒有一個顯卡或CPU不行,那就二個,三個,四個…
不错
加油!
Tim,电脑windows没有激活啊,哈哈