Und noch ein Tipp für den Cameratracker : Wenn du Motion Blur auf deinen Bewegen Objekten haben willst sollstest du in den Camera Tracker Render auf die Settings gehen und dort die Motion Blur aktivieren :)
Kurze Frage zum kompletten Gegenteil:🙃 In meinem Shot ist zu viel Motion Blur, dass der Track richtig funktioniert. Hab zum Beispiel einen Solve Error von 12.😂 Gibt es irgenwelche Tipps, was man da machen kann? Klar, bei der Aufnahme mit höherem Shutter filmen, ist jetzt aber schon zu spät...🥲
@@filmeric-films wenn du nen hohen Error durch Blur bekommst geh manuell deinen Track durch und lösche Tracks die wirklich nicht passen. Wie z.B. Tracken die an Kanten entlang gleiten oder an Personen und fahrenden Objekten haften. Oftmals hilft es dir das Ergebnis zu verbessern. Du kannst auch Tracks mit schlechten track-error löschen. Ein bisschen fortgeschrittener ist dagegen das Frameinterval mit der größten Diskrepanz zu bestimmen. Im ersten Solvereiter wenn du ihn aufklappst (da wo haken setzen kannst für Solve for Lensparameters etc) kannst du ein Frame Intervall eintragen. Das sollte ein Interval sein mit dem größten Paralax. Oft mals hilf dir ein manuelles Intervall schwierige Tracks richtig zu bekommen.
Echt alles wichtige drin, mal wieder cooles Tutorial. Eigentlich krass, dass man in Fusion 1000 bis 7000 Tracking-Makers braucht und in Blender nur 8, dafür aber halt wirklich richtig gute 8 Makers.
Naja das ist falsch gezählt. Für Fusion brauchst du auch nur 8 Tracker pro Frame das ist das selbe Prozedere wie in Blender. Vergleiche die beiden Tracker wie wenn du jeden Frame in Blender sagen würdest autodetect Features. Dann hast du ja auch im Durchschnittlichen 800 - 7000 Tracker insgesamt für deinen gesamten Clip. Da Fusion die Tracker pro Frame automatisch generiert hast du automatisch mehr. Und darfst auch mehr aussortieren :) Die zahlen 1000-7000 sind Richtwerte von 6 Sekunden Clip (1000) und 30 Sekunden Clip (7000) Es geht nur darum nicht 20.000 Tracker für nen 5 Sekunden Clip zu haben weil dann brauchst du ne Stunde für den Camerasolve und das ist unverhältnismäßig.
Ja stimmt. Ich wusste zwar das in Blender 8 pro Frame gilt, aber das die Angabe mit 1000-7000 auf alle Frames bezieht, ist ja logisch. "Detect Features" in Blender find ich vor allem für schwierig zu Trackende Szenen mit viel Bewegung gut.
Moinsen, mal wieder ein super Video. Danke. Speziell das mit der Maske am Ende hat mir geholfen. Kannst du vielleicht in der Zukunft mal zeigen wie ich es hinbekomme, dass der Schatten vom meinem 3D Objekt (zum Beispiel auf dem Turm) korrekt dargestellt wird?
@@MeinVideoStudio Das muss mal sein. Bei OffToNewAdventures gibt es immer einen Hashtag des Tages. Offensichtlich kann man damit irgendwie die YT Algorithmus trigger
Moin Wenn du lust hast, dann findest du den Clip unter diesem Link: www.pexels.com/video/drone-footage-of-the-town-beside-the-lake-of-the-mountain-3654402/ viel Spaß beim Mitmachen.
@@MeinVideoStudio Danke dir digger! Wünsche, dass sich deine Subscriberanzahl bald deiner Quali anpasst. Durchhalten bis der Algorithmus es checkt! Weiter so!
Super Tutorial (mal wieder), die Grundlagen habe ich def. mitgenommen. Danke! Leider sind die, "da hab ich schon mal was vorbereitet Sequenzen" (wieso musste ich an ne Kochshow denken?) :-) , der eigentliche Schlüssel, zumindest zu meinem Glück. Aber so lernt man dann auch noch ein bischen selbst zu kochen. Und deine Erklärungen auf Fragen in den Kommentaren, helfen nicht nur der fragenden Person. Hab mir bei dir angewöhnt, bei Probs erstmal runter zu scrollen. Maske es gut erstmal :-)
Du bist ja ganz schön lieber Nachtschwärmer. Ja genau Kommentare sind ja dafür da um Fragen zu beantworten. Ich versuche zumindest up to date zu sein :)
Moin moin, ich habe jetzt seit gestern die Studioversion. Mit Schnee oder einem Quadrat in der Szene komme ich klar. Jetzt wollte ich aber einen lensflare in den 3d camera track einabauen, kann diese aber nicht verbinden. Wie kann ich also ein 2d element in die "3d-welt" bringen?
Doch kannst du :) In der 3D Szene fügst du einen Locator3D ein und dann kannst du den lensflare nach dem Renderer 3D mergen (Blendmode Screen) Im Lensflare kannst du dann mit rechtsclick auf Center gehen und über Connect to Locator 3D die Position des Locators relativ zur Camera auslesen lassen. Wenn du jetzt den Locator bewegst bewegt sich der Lenseflair mit. Falls du bessere Lensflares als die Eingebauen haben willst kannst du dir mal "Lensmaster Flairs" von Learn now FX ansehen das Plugin kann ich nur empfehlen. Es ist performant und hat um Längen mehr auf dem Kasten als die Standart Teile ich Fusion. :) So hoffe das macht Sinn für dich Lg Yo
@@MeinVideoStudio Erstmal danke :D Ich verstehe nur leider den ersten Schritt nicht wirklich. Ich habe jetzt den Lens Flare und den Locator3D und irgendwie muss ich das in den Merge3D bekommen. Kannst du mir diesen Schritt vielleicht nochmals anders erklären, ich habs leider nicht nachvollziehen können
Du ziehst nur den Locator 3D in die Merge 3D. Und gehst ja vom Merge 3D in den CameratrackRenderer. Dann holst du dir eine Lensflare rein (Effectlibary Templates Lenseflares) Die Standart Lensflares benötigen einen Bildinput um angezeigt zu werden. Deswegen gest du vom CameratrackerRenderer (also das was du in den Mediaout verbinden würdest) gehst du in die Gruppe des Lensflares rein (orangener Pfeil). Von der Lensflair Gruppe gehst du in den Mediaout. So jetzt kommt der Part der wahrscheinlich schwer zu verstehen ist. Der locator der nimmt pausenlos seine 3D Position auf und gibt diese als X und Y Koordinaten an einen (noch nicht verbundenen) Modifier weiter. Fusion hat im Hintergrund nen Modifier angelegt. Der diese Daten Ausliest. und diese X und Y Koordinaten kannst du einen jeden Center Parameter oder 2D Punkt verbinden.(Also Alles was ne X und Y Koordinate hat z.B. Center oder Pivot) Das bedeutet du musst überhaupt keine Verbindungen in den Nodes ziehen sondern den Modifier auf einen Punkt anwenden. Was du jetzt also konkret machst ist folgendes: Du klicks mit Rechtsklick auf den Center/Positions Parameter des lens Flares und dann kannst du auf "Connect to" -》 3D Locator klicken. Damit sollte der Lensflare an eine andere Stelle springen weil er jetzt die in 2D Positionsdaten umgewandelten 3D Koordinaten des 3D Locator erhält. Wenn du jetzt den Lensflair bewegen möchtest dann ziehst du einfach nur in deiner 3D Szene den Locator 3D in 3D Hin und Her. Der 3D Locator arbeitet also quasi als 3D Null Objekt welches seine 3D Position in 2D Convertiert und an beliebig viele Centerparameter weitergeben kann. Achso eine wichtige Frage wer noch was du als lensflare benutzt?. Weil wenn du nicht die Standard Presets aus der effect library nimmst, dann müsstest du einfach nach dem Renderer ein Merge einfügen und das Bild eines lensflares mit dem Grünen Pfeil der Merge Verbinden. Im Merge kannst du dann wieder den Center Parameter mittels Connect to 》3D Locator an die 3D Position binden.
@@MeinVideoStudio Einen riesen Dank! Es hat geklappt :D Danke für diese unfassbar detaillierte Erklärung zu meiner Frage. Bisher habe ich übrigens nur die Standard Lensflares. Ich habe dich vor paar Monaten entdeckt und bin extrem froh darüber. Du bist einfach einer der wenigen UA-camr, die auch mal etwas kompliziertere Sachen erklären.
Hola. So I am back. Again, I am a beginner so I don´t think I will need this in the near future, but it is very entertaining. By reading your answers to the comments here and other videos, I understand that you have your plans and interest for the videos you want to make, ABER, I hope one day in the near future, you will have the "lust" to make a cool "bullet list" tutorial or template. I know that for you that might be "basic" but maybe you can make something "besondere"... Or not... Saludos amigo.
Super erklärt! Wie kann ich eine Person (Green Screen) in eine 3D Szene integrieren? Jedes Mal wenn ich es versuche bleibt die Person nicht am Boden oder an der richtigen Stelle der Szene. Was mach ich falsch?
Hey das kann an mehreren Dingen liegen. 1. Bewegt sich diese Person im Greenscreenclip? Vorallem nach hinten oder vorne? Dann ist es quasi so als würde die Person größer oder kleiner werden. Das kann dazu führen, dass eine Person nicht richtig dargestellt wird. 2. Ist die Position der Imageplane in 3D richtig? Orientiere dich bei der Positionierung der Imageplane an der Point Cloud um die korrekte Positionierung in der 3D Szene zu haben. Denn wenn du auch nur etwas zu weit vorne oder zu weit hinten bist, wird der Parallax in der 3D Szene komisch aussehen. 3. Ist dein Kamera Track richtig und ist die 3D Kamera richtig eingestellt? Wenn dein Kamera Track nicht richtig ist, dann kann es zu Verzerrungen und verschiebungen kommen. Check bitte nochmal im Solve Tab was er dir dort an Daten Auswirft und gleich die Kameradaten mit deinen eingegebenen Kamera Daten ab. Denn das was du im Kameratab eingibst bestimmt dann deine 3D Kamera deiner Szene. Und wenn die Focale Länge nicht Matchen kann es sehr schnell sein, dass dinge komisch aussehn. 4. Ist die Skalierung der Szene relevant? In der Szene Transform kannst du unter Scale 2 Trackpunkte angeben und deren Entfernung zueinander bestimmen. Eine Korrekte Szenen Skalierung kann dazu führen, dass du auch richtige Dimensionen hast und somit die Tiefe der Szene besser bestimmt wird. So ich hoffe das hilft dir dein Problem einzugrenzen.
@@MeinVideoStudio Vielen herzlichen Dank, ich werde es dieses Wochenende ausprobieren. Vor und zurück geht die Person nicht. Die Szene bewegt sich nur nach vorne, dass geht doch auch mit dem Camera Tracker?
Das was du auf 11:24 mal kurz vorbereitet hast da komme ich nicht mehr weiter. Das Polygon das Trackerst du man sieht es nur ganz kurz. Wie Trackerst du das Polygon ohne Trackernode???
Ich habe einfach nur eine Maske erstellt mittels Polygone. Innerhalb des weißen Feldes wird dann das was in der 3D Szene ist angezeigt. Ich habe in meinem Fall das Weiße noch investiert indem ich im Renderer unter Settings "Apply mask inverted" angekreuzt hab. Die Polygone ist übrigens nicht getrackt sondern gekeyframed :) Im Endeffekt ist es genau so wie du jede Maske ziehst. Du kannst Masken (Polygone Nodes) ziehen und diese dann vom 3D Render abziehen somit kann man die 3D Einbettung glaubhafter machen weil das Objekt wirklich hinter dem Turm ist :)
Du kannst natürlich ein 3D Würfel oder ne andere Form an die Stelle setzen und und unter Matte "Is Matte anclicken" aber bei so komischen Formen wie der Turm da war es nicht wirklich hilfreich. Du kannst auch ein Locator 3D in die Szene bringen was ein Modifier wird :) um Positionscoordinaten zu bestimmen und damit das Center von der Polygone zu targetieren (connect to ...) Aber manchmal ist das etwas fiddelig :)
Ist auch geplant zusammen mit dem Volume Mask Tutorial :) Aber vorher will ich Rotoscoping, und Renderpasses durchnehmen. Und ein Teleport Tutorial machen :)
Cooles Tutorial, aber ich habe bei einer Szene gerade ein Problem. Eine Persone läuft durch das Bild, ich habe sie per MagicMask problemlos rausbekommen, der Tracker nimmt jetzt aber die Kanten der Maske, die sich ja bewegt, als Punkte für das Tracking ... gibt es da eine Einstellung, die das verhindert? - Okay- habs gelöst, indem ich diue Trackernode nochmal gelöscht haben und wieder reingesetzt hatte. Ein Leeren des Cache hatte vorher nichts gebracht. Naja, jetzt gehts.
Sag mir mal bitte zeitlich bei welcher Stelle du bist, vielleicht reden wir auch voll dran vorbei. In meinem Beispiel hat ich ne Bitmap genutzt um die Dunklen Teile des Turms mi nem Polygon zu verbinden weil es präziser und schneller ist als nur eine Polygone node zu ziehen. Das ist aber nur für diesen Shot anwendbar weil der Turm viel dunkler ist als das Wasser dahinter. Allgemein würde ich dir das Polygobe Tool empfehlen.
Ja 🤣 eigentlich wollte ich dass es einen harten cut zwischen der Frisur vor dem kamera solving und nachdem kamera solving gibt. Ich habe tatsächlich den letzten Teil nachdem kamera solving separat gedreht dann habe ich meine Freundin gebeten mir die Haare zu schneiden und dann habe ich den Anfangsteil gedreht. Ich wollte eigentlich die Vergange Zeit im Camerasolve verbildlichen XD aber am Ende finde ich kommt es dann doch nicht so stark rüber 🙈
Du bist denke ich der einzige der mir helfen kann. Ich habe alles so gemacht, wie hier beschrieben. Habe am Ende eine ImagePlane3D erstellt und mir ein normalen Text draufgezogen. Der Text fliegt super mit. Doch jetzt möchte ich den Text animieren zu einem handgeschriebenen Text, doch meine Splines (Maske) fliegt einfach nicht mit. Die 3D Kamera ignoriert die einfach. :( Hilfeeeee!
Du solltest die Handwritten Maske in die Textnode (blauer Input) ziehen. Also nicht am Ende sonder am Anfang ansetzen :) Vielleicht ist auch deine Maske Falsch rum ???? Machverst mal die Animation alleine und zieh das dann in die Imageplane. Dadurch kannst du Ausschließen woran es liegt.
@@MeinVideoStudio Maske , darunter Text, dann in die ImagePlane 3D und die dann in die Merge3D. An dem Frame, wo ich den Pfad gezeichnet habe, passt es auch wunderbar, da funktioniert die animation über die Controls der Maske auch aber der Pfad wird nicht von der 3D Kamera erfasst. Der bleibt einfach da wo er ist.
Genau das meinte ich ja. Dein Text in 3D bewegt sich weil sich deine Kamera bewegt. Du musst die Maske in den Blauen Pfeil der txt+ Node bringen BEVOR es in die 3D Szene geht also bevor sich dein Text bewegt. Mach erstmal nur die Animation und setz es noch nicht in 3D. Also Maske für den Write On Effekt in den Blauen Pfeil der Text+ Node. Wenn diese Animation Passt erst dann setzt du es auf ne Imageplane. Weil wenn du nen Text der sich in 3D bewegt Maskieren sollst wird das nix weil du musst dann nicht nur de n Reveal animieren sonder auch dessen Bewegung nachgehen ä Also AnimationsMaske für 2D Text 》Text+ (2D Statisch)》 Imagplane (Umwandlung in 3D) 》3D Szene (Bewegung in 3D) 》 Render 3D (Umwandlung in 2D)
Könntest du bitte die Frage umformulieren? ich stehe ein bisschen auf dem Schlau und weiß nicht genau was du wissen willst. Grundsätzlich bestimmt das Ändern der Brennweite deine 3D Kamera. Welche in die Szene gesetzt wird. Sensorgröße hat damit zu tun wie die Brennweite berechnet wird. Auf nem MFT Sensor mit nem 50mm Objektiv hast du ja umgerechnet ne 50mm Brennweite. Und damit deine Kamerasolve besser funktioniert ist es gut zu wissen mit was das ganze aufgenommen wurde.
@@MeinVideoStudio unter Camera wählst du doch 16:9 und 20mm Brennweite aus, als du über die Aufnahmen einer Drohne redest. Was macht man aber bei einem Zoom Objektiv und sich ändernden Brennweite während der Sequenz die getrackt werden soll
Leider geht das weder in Fusion noch in Blender. Tatsächlich sind dafür die wenigsten Camera Tracker ausgelegt. Für sowas solltest du dir Moccha Pro, Syntheyes oder PFTrack kaufen. Wenn du jedoch nur mit dem Handy zoomst sollte es keine Probleme geben da die Meisten Handys nur digital zoomen und nicht wirklich die Brennweite ändern. Da in der VFX Industrie oft mit geplanten Shot gearbeitet wird kannst du ja bei solchen Shots vorher besprechen wie sie umgesetzt werden.
OK, Davinci gekauft (Speed-Editor gibt's gratis momentan dazu) und hänge beim "Solve" er bleibt bei 0% stehen, nichts passiert, aber Davinci läuft. Bleibt auch nach ner halben Stunde bei 0%... Da ist watt faul im Staate Dänemark...
Google gab die Antwort: Zuviele Frames und zu wenig gute Tracker, so dass der Solver dran verzweifelt. Habe ein Stück rausgeschnitten und alles wiederholt und es klappt in ein paar Sekündchen
Das ist voll ok. Du findest sicherlich im Englischen Raum Leute die dir das gleiche bieten :) Ich würde dir VFXstudy, Jamie Fenn, William Justice undPatrick Stirling empfehlen ;) Danke fürs Feedback
Und noch ein Tipp für den Cameratracker :
Wenn du Motion Blur auf deinen Bewegen Objekten haben willst sollstest du in den Camera Tracker Render auf die Settings gehen und dort die Motion Blur aktivieren :)
Kurze Frage zum kompletten Gegenteil:🙃 In meinem Shot ist zu viel Motion Blur, dass der Track richtig funktioniert. Hab zum Beispiel einen Solve Error von 12.😂 Gibt es irgenwelche Tipps, was man da machen kann? Klar, bei der Aufnahme mit höherem Shutter filmen, ist jetzt aber schon zu spät...🥲
@@filmeric-films wenn du nen hohen Error durch Blur bekommst geh manuell deinen Track durch und lösche Tracks die wirklich nicht passen. Wie z.B. Tracken die an Kanten entlang gleiten oder an Personen und fahrenden Objekten haften.
Oftmals hilft es dir das Ergebnis zu verbessern.
Du kannst auch Tracks mit schlechten track-error löschen.
Ein bisschen fortgeschrittener ist dagegen das Frameinterval mit der größten Diskrepanz zu bestimmen.
Im ersten Solvereiter wenn du ihn aufklappst (da wo haken setzen kannst für Solve for Lensparameters etc) kannst du ein Frame Intervall eintragen. Das sollte ein Interval sein mit dem größten Paralax.
Oft mals hilf dir ein manuelles Intervall schwierige Tracks richtig zu bekommen.
@@MeinVideoStudio Danke für die ausführliche und schnelle Antwort! Probier ich aus🤩👍🏼
Super tutorial - endlich klappt es mit dem Camera Tracker! Danke dir fürs Teilen!
Na gerne doch deswegen mach ich die Tutorials doch. :)
Super, dass du auch Studio Funktionen zeigst
In Fusion ist ja eh fast alles auch in der Free Version Nutzbar ;)
Außer Cameratracking halt 🤣
Mein größten Respekt. Du bist echt next Level !
Nene
Next Level wäre gewesen wenn ich Groundplane und Shadowcatcher aus dem Render erstellt hätte aber das Video war schon lang genug XD
Echt alles wichtige drin, mal wieder cooles Tutorial. Eigentlich krass, dass man in Fusion 1000 bis 7000 Tracking-Makers braucht und in Blender nur 8, dafür aber halt wirklich richtig gute 8 Makers.
Naja das ist falsch gezählt.
Für Fusion brauchst du auch nur 8 Tracker pro Frame das ist das selbe Prozedere wie in Blender.
Vergleiche die beiden Tracker wie wenn du jeden Frame in Blender sagen würdest autodetect Features.
Dann hast du ja auch im Durchschnittlichen 800 - 7000 Tracker insgesamt für deinen gesamten Clip.
Da Fusion die Tracker pro Frame automatisch generiert hast du automatisch mehr. Und darfst auch mehr aussortieren :)
Die zahlen 1000-7000 sind Richtwerte von 6 Sekunden Clip (1000) und 30 Sekunden Clip (7000)
Es geht nur darum nicht 20.000 Tracker für nen 5 Sekunden Clip zu haben weil dann brauchst du ne Stunde für den Camerasolve und das ist unverhältnismäßig.
Ja stimmt. Ich wusste zwar das in Blender 8 pro Frame gilt, aber das die Angabe mit 1000-7000 auf alle Frames bezieht, ist ja logisch. "Detect Features" in Blender find ich vor allem für schwierig zu Trackende Szenen mit viel Bewegung gut.
Moinsen, mal wieder ein super Video. Danke. Speziell das mit der Maske am Ende hat mir geholfen. Kannst du vielleicht in der Zukunft mal zeigen wie ich es hinbekomme, dass der Schatten vom meinem 3D Objekt (zum Beispiel auf dem Turm) korrekt dargestellt wird?
Render Passen (Shadow + Lights) kommen definitiv noch.
Das mit den Visualisierungen z.B. für den Paralax Effekt ist echt eine gute Idee (Atempause). Mal wieder ein tolles Tutorial.
#YoRocks
Uh 🥰 ich bekomme jetzt schon eigene Hashtags 😍🤯
@@MeinVideoStudio Das muss mal sein. Bei OffToNewAdventures gibt es immer einen Hashtag des Tages. Offensichtlich kann man damit irgendwie die YT Algorithmus trigger
Ich danke dir.
Schön dass du es so siehst
Super gut, auf so ein Video habe ich auch gewartet👌👌😀😀
Hihihi
Ich glaube da haben Viele Leute Drauf gewartet
Excellent 👌
Danke😘
Voll geiles Tutorial! Danke. Wenn du noch den selben Dronen Clip, mit welchem du editierst, verlinkst könnte man 1 zu 1 nachmachen was du machst.
Moin Wenn du lust hast, dann findest du den Clip unter diesem Link:
www.pexels.com/video/drone-footage-of-the-town-beside-the-lake-of-the-mountain-3654402/
viel Spaß beim Mitmachen.
@@MeinVideoStudio Danke dir digger! Wünsche, dass sich deine Subscriberanzahl bald deiner Quali anpasst. Durchhalten bis der Algorithmus es checkt! Weiter so!
Super Tutorial (mal wieder), die Grundlagen habe ich def. mitgenommen. Danke! Leider sind die, "da hab ich schon mal was vorbereitet Sequenzen" (wieso musste ich an ne Kochshow denken?) :-) , der eigentliche Schlüssel, zumindest zu meinem Glück. Aber so lernt man dann auch noch ein bischen selbst zu kochen. Und deine Erklärungen auf Fragen in den Kommentaren, helfen nicht nur der fragenden Person. Hab mir bei dir angewöhnt, bei Probs erstmal runter zu scrollen. Maske es gut erstmal :-)
Du bist ja ganz schön lieber Nachtschwärmer.
Ja genau Kommentare sind ja dafür da um Fragen zu beantworten. Ich versuche zumindest up to date zu sein :)
@@MeinVideoStudio die Meinungen bezüglich meiner Schönheit sind, sagen wir durchmischt. Aber danke 🤪😎
Klasse Video! 👍
Danke :)
Klasse Video, danke 👍
Gerne doch :) Falls noch fragen sind immer gerne her damit
Moin moin, ich habe jetzt seit gestern die Studioversion. Mit Schnee oder einem Quadrat in der Szene komme ich klar. Jetzt wollte ich aber einen lensflare in den 3d camera track einabauen, kann diese aber nicht verbinden. Wie kann ich also ein 2d element in die "3d-welt" bringen?
Doch kannst du :)
In der 3D Szene fügst du einen Locator3D ein und dann kannst du den lensflare nach dem Renderer 3D mergen (Blendmode Screen)
Im Lensflare kannst du dann mit rechtsclick auf Center gehen und über Connect to Locator 3D die Position des Locators relativ zur Camera auslesen lassen.
Wenn du jetzt den Locator bewegst bewegt sich der Lenseflair mit.
Falls du bessere Lensflares als die Eingebauen haben willst kannst du dir mal "Lensmaster Flairs" von Learn now FX ansehen das Plugin kann ich nur empfehlen. Es ist performant und hat um Längen mehr auf dem Kasten als die Standart Teile ich Fusion. :)
So hoffe das macht Sinn für dich
Lg Yo
@@MeinVideoStudio Erstmal danke :D
Ich verstehe nur leider den ersten Schritt nicht wirklich. Ich habe jetzt den Lens Flare und den Locator3D und irgendwie muss ich das in den Merge3D bekommen. Kannst du mir diesen Schritt vielleicht nochmals anders erklären, ich habs leider nicht nachvollziehen können
Du ziehst nur den Locator 3D in die Merge 3D. Und gehst ja vom Merge 3D in den CameratrackRenderer.
Dann holst du dir eine Lensflare rein (Effectlibary Templates Lenseflares)
Die Standart Lensflares benötigen einen Bildinput um angezeigt zu werden. Deswegen gest du vom CameratrackerRenderer (also das was du in den Mediaout verbinden würdest) gehst du in die Gruppe des Lensflares rein (orangener Pfeil).
Von der Lensflair Gruppe gehst du in den Mediaout.
So jetzt kommt der Part der wahrscheinlich schwer zu verstehen ist.
Der locator der nimmt pausenlos seine 3D Position auf und gibt diese als X und Y Koordinaten an einen (noch nicht verbundenen) Modifier weiter. Fusion hat im Hintergrund nen Modifier angelegt. Der diese Daten Ausliest.
und diese X und Y Koordinaten kannst du einen jeden Center Parameter oder 2D Punkt verbinden.(Also Alles was ne X und Y Koordinate hat z.B. Center oder Pivot)
Das bedeutet du musst überhaupt keine Verbindungen in den Nodes ziehen sondern den Modifier auf einen Punkt anwenden.
Was du jetzt also konkret machst ist folgendes: Du klicks mit Rechtsklick auf den Center/Positions Parameter des lens Flares und dann kannst du
auf "Connect to" -》 3D Locator klicken.
Damit sollte der Lensflare an eine andere Stelle springen weil er jetzt die in 2D Positionsdaten umgewandelten 3D Koordinaten des 3D Locator erhält.
Wenn du jetzt den Lensflair bewegen möchtest dann ziehst du einfach nur in deiner 3D Szene den Locator 3D in 3D Hin und Her.
Der 3D Locator arbeitet also quasi als 3D Null Objekt welches seine 3D Position in 2D Convertiert und an beliebig viele Centerparameter weitergeben kann.
Achso eine wichtige Frage wer noch was du als lensflare benutzt?. Weil wenn du nicht die Standard Presets aus der effect library nimmst, dann müsstest du einfach nach dem Renderer ein Merge einfügen und das Bild eines lensflares mit dem Grünen Pfeil der Merge Verbinden.
Im Merge kannst du dann wieder den Center Parameter mittels Connect to 》3D Locator an die 3D Position binden.
@@MeinVideoStudio Einen riesen Dank! Es hat geklappt :D
Danke für diese unfassbar detaillierte Erklärung zu meiner Frage. Bisher habe ich übrigens nur die Standard Lensflares. Ich habe dich vor paar Monaten entdeckt und bin extrem froh darüber. Du bist einfach einer der wenigen UA-camr, die auch mal etwas kompliziertere Sachen erklären.
Hola. So I am back. Again, I am a beginner so I don´t think I will need this in the near future, but it is very entertaining. By reading your answers to the comments here and other videos, I understand that you have your plans and interest for the videos you want to make, ABER, I hope one day in the near future, you will have the "lust" to make a cool "bullet list" tutorial or template. I know that for you that might be "basic" but maybe you can make something "besondere"... Or not... Saludos amigo.
Super erklärt! Wie kann ich eine Person (Green Screen) in eine 3D Szene integrieren? Jedes Mal wenn ich es versuche bleibt die Person nicht am Boden oder an der richtigen Stelle der Szene. Was mach ich falsch?
Hey das kann an mehreren Dingen liegen.
1. Bewegt sich diese Person im Greenscreenclip?
Vorallem nach hinten oder vorne?
Dann ist es quasi so als würde die Person größer oder kleiner werden. Das kann dazu führen, dass eine Person nicht richtig dargestellt wird.
2. Ist die Position der Imageplane in 3D richtig?
Orientiere dich bei der Positionierung der Imageplane an der Point Cloud um die korrekte Positionierung in der 3D Szene zu haben. Denn wenn du auch nur etwas zu weit vorne oder zu weit hinten bist, wird der Parallax in der 3D Szene komisch aussehen.
3. Ist dein Kamera Track richtig und ist die 3D Kamera richtig eingestellt?
Wenn dein Kamera Track nicht richtig ist, dann kann es zu Verzerrungen und verschiebungen kommen. Check bitte nochmal im Solve Tab was er dir dort an Daten Auswirft und gleich die Kameradaten mit deinen eingegebenen Kamera Daten ab. Denn das was du im Kameratab eingibst bestimmt dann deine 3D Kamera deiner Szene. Und wenn die Focale Länge nicht Matchen kann es sehr schnell sein, dass dinge komisch aussehn.
4. Ist die Skalierung der Szene relevant?
In der Szene Transform kannst du unter Scale 2 Trackpunkte angeben und deren Entfernung zueinander bestimmen. Eine Korrekte Szenen Skalierung kann dazu führen, dass du auch richtige Dimensionen hast und somit die Tiefe der Szene besser bestimmt wird.
So ich hoffe das hilft dir dein Problem einzugrenzen.
@@MeinVideoStudio Vielen herzlichen Dank, ich werde es dieses Wochenende ausprobieren. Vor und zurück geht die Person nicht. Die Szene bewegt sich nur nach vorne, dass geht doch auch mit dem Camera Tracker?
@@Norbert-Miller
Jep. Sollte gehen.
@@MeinVideoStudio Vielen Dank, Du bist echt super :-)
Würde das auch funktionieren, statt der Polygon die Depth Map zu Camera Tracker?
Für das Maskieren würde es sicherlich reichen :)
Das was du auf 11:24 mal kurz vorbereitet hast da komme ich nicht mehr weiter.
Das Polygon das Trackerst du man sieht es nur ganz kurz. Wie Trackerst du das Polygon ohne Trackernode???
Ich habe einfach nur eine Maske erstellt mittels Polygone. Innerhalb des weißen Feldes wird dann das was in der 3D Szene ist angezeigt.
Ich habe in meinem Fall das Weiße noch investiert indem ich im Renderer unter Settings "Apply mask inverted" angekreuzt hab.
Die Polygone ist übrigens nicht getrackt sondern gekeyframed :)
Im Endeffekt ist es genau so wie du jede Maske ziehst. Du kannst Masken (Polygone Nodes) ziehen und diese dann vom 3D Render abziehen somit kann man die 3D Einbettung glaubhafter machen weil das Objekt wirklich hinter dem Turm ist :)
@@MeinVideoStudio Ich bastele Stunden rum und du hast das einfach nur gekeyframed :) .
Ich dachte so primitiv hast du das doch nicht wirklich gemacht.
Du kannst natürlich ein 3D Würfel oder ne andere Form an die Stelle setzen und und unter Matte "Is Matte anclicken" aber bei so komischen Formen wie der Turm da war es nicht wirklich hilfreich.
Du kannst auch ein Locator 3D in die Szene bringen was ein Modifier wird :) um Positionscoordinaten zu bestimmen und damit das Center von der Polygone zu targetieren (connect to ...)
Aber manchmal ist das etwas fiddelig :)
@@MeinVideoStudio Das schreit ja direkt nach einem weiteren Tutorial 😀😀
Wenn du wieder etwas mehr Zeit hast.
Ist auch geplant zusammen mit dem Volume Mask Tutorial :)
Aber vorher will ich Rotoscoping, und Renderpasses durchnehmen.
Und ein Teleport Tutorial machen :)
Cooles Tutorial, aber ich habe bei einer Szene gerade ein Problem. Eine Persone läuft durch das Bild, ich habe sie per MagicMask problemlos rausbekommen, der Tracker nimmt jetzt aber die Kanten der Maske, die sich ja bewegt, als Punkte für das Tracking ... gibt es da eine Einstellung, die das verhindert? - Okay- habs gelöst, indem ich diue Trackernode nochmal gelöscht haben und wieder reingesetzt hatte. Ein Leeren des Cache hatte vorher nichts gebracht. Naja, jetzt gehts.
Such nach bitmap das an di magic Mask anschließen dann erode dilate und in der erode dilate die Maske etwas erweitern.
Das dann in die Occlusion
Hat dir die Antwort geholfen?
Echt gutes Video👌📹
Danke dir.
Falls noch fragen Aufkommen immer gerne Her damit
Mahlzeit. Mein Bitmap hat keinen Paint Mode. Dieses Feld fehlt komplett in Resolve 17 Studio... oder mache ich etwas falsch?
Das was du suchst ist das Polygone Tool.
Bitmap ist nur um Channel in Masken umzuwandeln:)
@@MeinVideoStudio ich versteh es nicht :D du ändert das doch auch in der Bitmap für den Text
Sag mir mal bitte zeitlich bei welcher Stelle du bist, vielleicht reden wir auch voll dran vorbei.
In meinem Beispiel hat ich ne Bitmap genutzt um die Dunklen Teile des Turms mi nem Polygon zu verbinden weil es präziser und schneller ist als nur eine Polygone node zu ziehen.
Das ist aber nur für diesen Shot anwendbar weil der Turm viel dunkler ist als das Wasser dahinter. Allgemein würde ich dir das Polygobe Tool empfehlen.
top
Der solve hat so lange gedauert, dass die Friese schlapp gemacht hat?
Hahahaha ja genau.
Schön dass du den Joke bemerkt hast :)
@@MeinVideoStudio Super Tutorials auf alle Fälle, danke!
Und deine Frisur ist die beste 😂😝
Ja 🤣 eigentlich wollte ich dass es einen harten cut zwischen der Frisur vor dem kamera solving und nachdem kamera solving gibt.
Ich habe tatsächlich den letzten Teil nachdem kamera solving separat gedreht dann habe ich meine Freundin gebeten mir die Haare zu schneiden und dann habe ich den Anfangsteil gedreht.
Ich wollte eigentlich die Vergange Zeit im Camerasolve verbildlichen XD aber am Ende finde ich kommt es dann doch nicht so stark rüber 🙈
@@MeinVideoStudio Habs trotzdem bemerkt :-)
@@ruedigerwink je da hat jemand Adleraugen XD
Du bist denke ich der einzige der mir helfen kann. Ich habe alles so gemacht, wie hier beschrieben. Habe am Ende eine ImagePlane3D erstellt und mir ein normalen Text draufgezogen. Der Text fliegt super mit. Doch jetzt möchte ich den Text animieren zu einem handgeschriebenen Text, doch meine Splines (Maske) fliegt einfach nicht mit. Die 3D Kamera ignoriert die einfach. :( Hilfeeeee!
Du solltest die Handwritten Maske in die Textnode (blauer Input) ziehen.
Also nicht am Ende sonder am Anfang ansetzen :)
Vielleicht ist auch deine Maske Falsch rum ????
Machverst mal die Animation alleine und zieh das dann in die Imageplane. Dadurch kannst du Ausschließen woran es liegt.
@@MeinVideoStudio Maske , darunter Text, dann in die ImagePlane 3D und die dann in die Merge3D.
An dem Frame, wo ich den Pfad gezeichnet habe, passt es auch wunderbar, da funktioniert die animation über die Controls der Maske auch aber der Pfad wird nicht von der 3D Kamera erfasst. Der bleibt einfach da wo er ist.
Genau das meinte ich ja.
Dein Text in 3D bewegt sich weil sich deine Kamera bewegt.
Du musst die Maske in den Blauen Pfeil der txt+ Node bringen BEVOR es in die 3D Szene geht also bevor sich dein Text bewegt.
Mach erstmal nur die Animation und setz es noch nicht in 3D.
Also Maske für den Write On Effekt in den Blauen Pfeil der Text+ Node.
Wenn diese Animation Passt erst dann setzt du es auf ne Imageplane.
Weil wenn du nen Text der sich in 3D bewegt Maskieren sollst wird das nix weil du musst dann nicht nur de n Reveal animieren sonder auch dessen Bewegung nachgehen ä
Also
AnimationsMaske für 2D Text 》Text+ (2D Statisch)》 Imagplane (Umwandlung in 3D) 》3D Szene (Bewegung in 3D) 》 Render 3D (Umwandlung in 2D)
@@MeinVideoStudio Dankeschön für deine Antworten. Ich bau es mal genauso nach.
@@MeinVideoStudio ähhhh es hat auf diese Weise geklappt. XD riesen Dankeschön.
Nabend. Interessant wäre die Info, was man bei sich ändernder Brennweite unternimmt
Könntest du bitte die Frage umformulieren? ich stehe ein bisschen auf dem Schlau und weiß nicht genau was du wissen willst.
Grundsätzlich bestimmt das Ändern der Brennweite deine 3D Kamera. Welche in die Szene gesetzt wird.
Sensorgröße hat damit zu tun wie die Brennweite berechnet wird.
Auf nem MFT Sensor mit nem 50mm Objektiv hast du ja umgerechnet ne 50mm Brennweite.
Und damit deine Kamerasolve besser funktioniert ist es gut zu wissen mit was das ganze aufgenommen wurde.
@@MeinVideoStudio unter Camera wählst du doch 16:9 und 20mm Brennweite aus, als du über die Aufnahmen einer Drohne redest. Was macht man aber bei einem Zoom Objektiv und sich ändernden Brennweite während der Sequenz die getrackt werden soll
Leider geht das weder in Fusion noch in Blender. Tatsächlich sind dafür die wenigsten Camera Tracker ausgelegt.
Für sowas solltest du dir Moccha Pro, Syntheyes oder PFTrack kaufen.
Wenn du jedoch nur mit dem Handy zoomst sollte es keine Probleme geben da die Meisten Handys nur digital zoomen und nicht wirklich die Brennweite ändern.
Da in der VFX Industrie oft mit geplanten Shot gearbeitet wird kannst du ja bei solchen Shots vorher besprechen wie sie umgesetzt werden.
@@MeinVideoStudio ok, vielen Dank für die Antwort
Dankeeeööö!
Gerneeeööööö! ;)
DIESER KOMMENTAR IST FÜR DEN ALGORITHMUS
Danke dir Bro:)
OK, Davinci gekauft (Speed-Editor gibt's gratis momentan dazu) und hänge beim "Solve" er bleibt bei 0% stehen, nichts passiert, aber Davinci läuft. Bleibt auch nach ner halben Stunde bei 0%... Da ist watt faul im Staate Dänemark...
Google gab die Antwort: Zuviele Frames und zu wenig gute Tracker, so dass der Solver dran verzweifelt. Habe ein Stück rausgeschnitten und alles wiederholt und es klappt in ein paar Sekündchen
Ja manchmal ist der Solver auch bei zu vielen tracken überfordert. Es muss sich immer so ein bisschen die Wage halten.
Hab auch noch niemanden gehört, der die Tracker würmchen nennt xD
Ich nenne sie Würmchen.
Weil sie So Süß aussehen.
Und du kannst ja den Kamerasolve mit dem Schmetterling vergleichen XD
egal wie gut der Inhalt sein mag, ich halte den Typ nicht aus ...
Das ist voll ok.
Du findest sicherlich im Englischen Raum Leute die dir das gleiche bieten :)
Ich würde dir VFXstudy, Jamie Fenn, William Justice undPatrick Stirling empfehlen ;)
Danke fürs Feedback