{"id":766,"date":"2020-01-17T15:10:40","date_gmt":"2020-01-17T15:10:40","guid":{"rendered":"https:\/\/blog.zhdk.ch\/zfiction\/?page_id=766"},"modified":"2021-06-17T12:56:01","modified_gmt":"2021-06-17T12:56:01","slug":"zf-20-vokabular","status":"publish","type":"page","link":"https:\/\/blog.zhdk.ch\/zfiction\/zf-20-vokabular\/","title":{"rendered":"ZF21 Vokabular"},"content":{"rendered":"<h6 id=\"laserscanning\"><\/h6>\n<hr class=\"ttfmake-hr\" style=\"border-style: solid;border-top-width: 1px\" \/>\n<h4><strong>&gt; 3D-Laserscanning<\/strong><\/h4>\n<p>Bei der Vermessung von Objekten oder R\u00e4umen mit Hilfe rotierender Laserstrahlen entstehen dreidimensionale Punktwolken (Point Clouds), die in digitale 3D-Modelle umgerechnet werden k\u00f6nnen. Um ein vollst\u00e4ndiges Modell zu erhalten, braucht es mehrere Scans von unterschiedlichen Standorten. Optimale Texturen werden h\u00e4ufig erreicht, indem das Scanning mit der Methode der <em>&gt; <a href=\"#fotogrammetrie\">Fotogrammetrie<\/a><\/em> kombiniert wird. Laserscans werden vermehrt in der Filmproduktion eingesetzt, um fotorealistische 3D-Modelle f\u00fcr die &gt; <a href=\"#virtualproduction\"><em>Virtual Production<\/em><\/a> \u00a0zu erhalten. Die Filme des ZHdK-Forschungsprojekts\u00a0<em>Virtually Real<\/em> basieren auf diesen Verfahren, vgl. &gt; <a href=\"https:\/\/blog.zhdk.ch\/zfiction\/2020\/01\/20\/virtually-real-drehen-in-virtuellen-raeumen\/\">Virtually Real: Drehen in virtuellen R\u00e4umen<\/a>.<\/p>\n<p><strong>&gt; Links:\u00a0<\/strong>ETH Z\u00fcrich \/Institut f\u00fcr Landschaftsarchitektur:\u00a0<a href=\"https:\/\/vimeo.com\/265531564\">Schanzengraben Pointcloud Journey<\/a>\u00a0\/\u00a0Leica BLK 360 \u2013 <a href=\"https:\/\/www.youtube.com\/watch?time_continue=2&amp;v=hGOQ1lUysxY&amp;feature=emb_logo\">Is it for the Film Industry?<\/a>\u00a0\/\u00a0ScanLAB, London: <a href=\"https:\/\/vimeo.com\/scanlab\">Showreel<\/a> \/ Liam Young: <a href=\"https:\/\/vimeo.com\/188626212\">Where the City Can&#8217;t See<\/a> (Teaser) &#8211; Experimenteller Spielfilm, gedreht mit Laserscanner<\/p>\n<h6 id=\"laserscanning\"><\/h6>\n<hr class=\"ttfmake-hr\" style=\"border-style: solid;border-top-width: 1px\" \/>\n<h4><strong>&gt;\u00a0CGI<\/strong><\/h4>\n<p>Abk\u00fcrzung f\u00fcr <em>Computer Generated Imagery<\/em>. Der Standardbegriff, um computergenerierte Bildinhalte und Effekte zu bezeichnen.<\/p>\n<h6 id=\"cinetracer\"><\/h6>\n<hr class=\"ttfmake-hr\" style=\"border-style: solid;border-top-width: 1px\" \/>\n<h4><strong>&gt;\u00a0CineTracer<\/strong><\/h4>\n<p>Mit der\u00a0Worldbuilding-Software <em>CineTracer<\/em>\u00a0k\u00f6nnen Nutzer*innen im 3D-Raum Welten bauen, Figuren inszenieren, Sets einleuchten und Kamerabewegungen choreographieren. &gt;\u00a0<a href=\"https:\/\/www.cinetracer.com\">www.cinetracer.com<\/a><\/p>\n<h6 id=\"digitalhumans\"><\/h6>\n<hr class=\"ttfmake-hr\" style=\"border-style: solid;border-top-width: 1px\" \/>\n<h4><strong>&gt;\u00a0Digital Humans<\/strong><\/h4>\n<p>Fotorealistische 3D-Modelle von Menschen werden \u00fcblicherweise Digital Humans genannt. Sie entstehen auf der Grundlage von statischen 3D-Scans der Schauspieler*innen auf der Grundlage der &gt; <a href=\"#fotogrammetrie\"><em>Fotogrammetrie<\/em><\/a> und k\u00f6nnen mit\u00a0<em>&gt; <a href=\"#mocap\">Motion Capture <\/a><\/em>animiert werden. Dabei werden Bewegungen von Schauspieler*innen erfasst und auf die Digital Humans \u00fcbertragen. Wenn auch die Bewegungen der Gesichtsmuskulatur und der Augen erfasst werden, wird meistens der Begriff &gt; <em><a href=\"#perfcap\">Performance Capture<\/a> <\/em>angewendet<em>. <\/em>Digital Humans k\u00f6nnen auch mit volumetrischen Aufnahmeverfahren oder Videogrammetrie (&gt; <a href=\"#volucap\">Volumetric Capture<\/a>) erfasst werden.<\/p>\n<p><strong>&gt; Link:<\/strong> Ein Beispiel f\u00fcr einen Digital Human, der in Echtzeit animiert wird, zeigt das <a href=\"https:\/\/www.youtube.com\/watch?v=NW6mYurjYZ0\">Forschungsprojekt Siren<\/a>\u00a0(u.a. von Unreal Engine, Cubic Motion, 3Lateral).<\/p>\n<h6 id=\"fotogrammetrie\"><\/h6>\n<hr class=\"ttfmake-hr\" style=\"border-style: solid;border-top-width: 1px\" \/>\n<h4><strong>&gt; Fotogrammetrie<\/strong><\/h4>\n<p>Fotogrammetrie\u00a0ist eine Methode zur Erstellung von fotorealistischen 3D-Modellen eines Objekts oder eines Raums auf der Grundlage einer Vielzahl Fotografien. Computerprogramme erkennen die \u00dcberschneidung der unterschiedlichen Aufnahmeperspektiven und berechnen auf trigonometrischer Grundlage ein 3D-Modell. Fotogrammetrische Aufnahmen sind zu einer \u00fcblichen Methode geworden, um fotorealistische 3D-Modelle f\u00fcr die Virtual Production zu erstellen. (vgl. auch &gt; <a href=\"#laserscanning\">3D-Laserscanning<\/a>)<\/p>\n<p><strong>&gt; Links:<\/strong> Made With Unity: <a href=\"https:\/\/www.youtube.com\/watch?v=JuvAlaoCUUA\">ADAM &#8211; Behind the Scenes<\/a>\u00a0\u2013 Photogrammetry<\/p>\n<h6 id=\"gameengine\"><\/h6>\n<hr class=\"ttfmake-hr\" style=\"border-style: solid;border-top-width: 1px\" \/>\n<h4><strong>&gt; Game Engine<\/strong><\/h4>\n<p>Eine Game Engine ist eine Software zum Entwickeln von Videospielen. Mit ihr wird die visuelle Darstellung eines Spiels hergestellt und der Spielverlauf gesteuert. Zu den Komponenten einer Game Engine geh\u00f6ren ein Echtzeit-Renderer zur Darstellung von 3D-Gafiken, eine Physics Engine zur Simulation physikalischer Gesetzm\u00e4ssigkeiten wie Gravitation, Tr\u00e4gheit, und Bewegungsverhalten von K\u00f6rpern, Fl\u00fcssigkeiten und Gasen. Durch die stark gesteigerte Leistung k\u00f6nnen Game Engines komplexe fotorealistische 3D-Welten in Echtzeit rendern und sind so f\u00fcr Simulationsanwendungen ausserhalb des Game-Bereichs interessant geworden. Zu den bekanntesten Engines, die von Usern programmiert werden k\u00f6nnen, geh\u00f6ren Unity und Unreal Engine.<\/p>\n<p><strong>&gt; Links:<\/strong> <a href=\"https:\/\/www.unrealengine.com\/en-US\/\">Unreal Engine<\/a> \/ <a href=\"https:\/\/unity.com\/de\">Unity<\/a><\/p>\n<h6 id=\"greenscreen\"><\/h6>\n<hr class=\"ttfmake-hr\" style=\"border-style: solid;border-top-width: 1px\" \/>\n<h4><strong>&gt; Green Screen<\/strong><\/h4>\n<p>Mit gr\u00fcnen Hintergr\u00fcnden k\u00f6nnen Objekte im Vordergrund auf der Basis einer eng definierten Farbauswahl isoliert werden, um mit einem beliebigen Hintergrund kombiniert zu werden. Die Zusammensetzung mit dem Hintergrund kann mit spezieller Hardware und in begrenzter Qualit\u00e4t auch in Echtzeit geleistet werden. Die Auswahl von Objekten wird auch <em>Keying<\/em> genannt, die Zusammensetzung von Vordergrund- und Hintergrundelementen <em>Compositing. <\/em>Neben der Green Screen wird je nach Anwendung und Objekt- und Lichtverh\u00e4ltnissen auch die <em>Blue Screen<\/em> eingesetzt.<\/p>\n<p><strong>&gt; Links:\u00a0<\/strong><a href=\"https:\/\/www.youtube.com\/watch?v=5gZWna6RnCA\">Real-time Compositing Demo<\/a>, UE4 On-Set Facilities \/ <a href=\"https:\/\/www.youtube.com\/watch?v=Kd6Bx74LMSM\">MR Factory Brings Virtual Production to the Studio<\/a>,\u00a0Project Spotlight,\u00a0Unreal Engine<\/p>\n<h6 id=\"incamera\"><\/h6>\n<hr class=\"ttfmake-hr\" style=\"border-style: solid;border-top-width: 1px\" \/>\n<h4><strong>&gt;\u00a0In-Camera Effect<\/strong><\/h4>\n<p>Wenn ein Visual Effect nicht durch aufw\u00e4ndige Prozesse in der Postproduktion entsteht, sondern direkt beim Drehen hergestellt wird, spricht man von einem In-Camera-Effekt. Einfache In-Camera-Effekte werden durch Filter oder bestimmte Features der Kamera-Hardware erzielt. In letzter Zeit wurden bei Grossproduktionen vermehr grosse LED-Bildschirme oder Laserprojektionen an Stelle von &gt; <a href=\"#greenscreen\"><em>Green Screen <\/em><\/a>eingesetzt. Diese Verfahren sind zwar teuer, versprechen aber h\u00f6here Effizienz, grosse Vorteile bei der Lichtsetzung (die LED-W\u00e4nde dienen auch als dynamische Lichtquelle) und vereinfachen die Arbeit der Schauspieler*innen, da diese nicht mehr im abstrakten gr\u00fcnen Raum spielen m\u00fcssen, sondern die fotorealistische Umgebung der Szene beim Drehen vor sich haben.<\/p>\n<p><strong>&gt; Links: <\/strong><a href=\"https:\/\/www.youtube.com\/watch?v=bErPsq5kPzE\">Next-Gen Filmmaking<\/a>,\u00a0Project Spotlight, Unreal Engine (Kurzversion) \/ <a href=\"https:\/\/www.youtube.com\/watch?v=Hjb-AqMD-a4\">Real-Time In-Camera VFX<\/a>\u00a0with UE4\u2019s Next-Gen Virtual Production Tools, Project Spotlight (Langversion \/Making of)<\/p>\n<h6 id=\"mocap\"><\/h6>\n<hr class=\"ttfmake-hr\" style=\"border-style: solid;border-top-width: 1px\" \/>\n<blockquote>\n<h4><strong>&gt; Motion Capture<\/strong><\/h4>\n<\/blockquote>\n<p>Motion Capture (kurz: MoCap) ist urspr\u00fcnglich ein Werkzeug f\u00fcr Animationsfilme. Schauspieler tragen spezielle Anz\u00fcge mit Bewegungsmarken, die von speziellen Kameras erfasst und im Computer in ein 3D-Modell umgewandelt werden. Die Bewegungsdaten k\u00f6nnen auf beliebige, computergenerierte Figuren \u00fcbertragen werden, um ihnen nat\u00fcrlich wirkende Bewegungen zu verleihen. Dank hoher Computerleistungen kann Motion Capture auch live angewendet werden. So k\u00f6nnen bei der &gt; <a href=\"#virtualproduction\"><em>Virtual Production<\/em><\/a> die Bilder der &gt; <a href=\"#virtualcamera\"><em>Virtual Camera<\/em><\/a> in Echtzeit generiert werden. Ein Schauspieler, der im MoCap-Anzug im Studio steht, erscheint so auf dem Bild der virtuellen Kamera beispielsweise als Fabelwesen, das sich in einer Fantasielandschaft bewegt.<\/p>\n<p><strong>&gt; Link:<\/strong>\u00a0<em>Ready Player One<\/em>: <a href=\"https:\/\/www.youtube.com\/watch?v=6jo_SfurgkE\">Motion Capture Featurette<\/a><\/p>\n<h6 id=\"perfcap\"><\/h6>\n<hr class=\"ttfmake-hr\" style=\"border-style: solid;border-top-width: 1px\" \/>\n<blockquote>\n<h4><strong>&gt; Performance Capture<\/strong><\/h4>\n<\/blockquote>\n<p>Performance Capture bezeichnet \u00fcblicherweise das Verfahren von &gt; <a href=\"#mocap\"><em>Motion Capture<\/em><\/a>, wenn zus\u00e4tzlich auch die Bewegungen der Gesichtsmuskulatur und der Augen erfasst werden, um die Animation von virtuellen Figuren komplett zu machen. Zu den bekanntesten Filmfiguren, denen mit Performance Capture Leben eingehaucht wurden, geh\u00f6ren Gollum (The Hobbit) oder Ceasar (Planet of the Apes). Beide Figuren wurden von Andy Serkis interpretiert.<\/p>\n<p><strong>&gt; Link:<\/strong><a href=\"https:\/\/www.youtube.com\/watch?v=lXZhgkNFGfM\">\u00a0iPhone X Facial Capture<\/a><\/p>\n<h6 id=\"previs\"><\/h6>\n<hr class=\"ttfmake-hr\" style=\"border-style: solid;border-top-width: 1px\" \/>\n<blockquote>\n<h4><strong>&gt; Previs<\/strong><\/h4>\n<\/blockquote>\n<p>Previsualization, oder kurz Previs, bezeichnet grunds\u00e4tzlich jede Form von\u00a0Vorvisualisierung geplanter Film-, Game oder auch Theaterszenen. In letzter Zeit haben sich digitale Anwendungen durchgesetzt, die auf der Grafikleistung von &gt; <a href=\"#gameengine\"><em>Game Engines<\/em><\/a> beruhen. H\u00e4ufig wird dabei auch dazu die Technik von &gt; <a href=\"#virtualreality\"><em>Virtual Reality<\/em><\/a> eingesetzt. Beispiele der Previs-Anwendung finden sich im Video in der rechten Spalte dieser Webseite. Und in der Ausstellung von ZFICTION.21 wird man sich auch hands-on mit dem Previs-Tisch und der VR-Variante von Previs auseinandersetzen k\u00f6nnen.<\/p>\n<h6 id=\"realtime\"><\/h6>\n<hr class=\"ttfmake-hr\" style=\"border-style: solid;border-top-width: 1px\" \/>\n<blockquote>\n<h4><strong style=\"font-size: 2rem\">&gt; Real Time \/ Echtzeit<\/strong><\/h4>\n<\/blockquote>\n<p>Echtzeit-Grafikleistung ist die Grundvoraussetzung f\u00fcr &gt; <a href=\"#virtualproduction\"><em>Virtual Production<\/em><\/a>. Durch schnellere Computer und insbesondere die Anwendung von Machine Learning und k\u00fcnstlicher Intelligenz ist gegenw\u00e4rtig eine beschleunigte Entwicklung im Gange, die vieles m\u00f6glich macht, was vor kurzem noch lange Rechenprozesse brauchte. Auch Echtzeitprozesse sind vom Input des Befehls bis zum Output des Resultats minimalen Verz\u00f6gerungen unterworfen (Latenz).<\/p>\n<h6 id=\"tracking\"><\/h6>\n<hr class=\"ttfmake-hr\" style=\"border-style: solid;border-top-width: 1px\" \/>\n<h4><strong>&gt; Tracking<\/strong><\/h4>\n<p>Die Positionsbestimmung ist f\u00fcr die &gt; <a href=\"#virtualproduction\"><em>Virtual Production<\/em><\/a> unabdingbar, damit der genaue Standort\u00a0relevanter Objekte im wirklichen Raum in den virtuellen Raum des 3D-Modells \u00fcbertragen werden kann. Trackingsysteme verwenden meist Infrarotkameras, die spezielle Marker (oder Tracker) und ihre r\u00e4umliche Position im 3D-Raum erkennen k\u00f6nnen. So kann beispielsweise ein getracktes iPad als Kamera dienen und den virtuellen Raum sichtbar machen (&gt; <a href=\"#virtualcamera\"><em>Virtual Camera<\/em><\/a>). Die Software errechnet aufgrund der Positionsdaten des iPads und der zugeordneten Objektivbrennweite das Bild der virtuellen Kamera und \u00fcbertr\u00e4gt es in Echtzeit auf das iPad.<\/p>\n<h6 id=\"virtualcamera\"><\/h6>\n<hr class=\"ttfmake-hr\" style=\"border-style: solid;border-top-width: 1px\" \/>\n<h4><strong>&gt; VFX<\/strong><\/h4>\n<p>\u00dcbliche Abk\u00fcrzung f\u00fcr <em>Visual Effects.<\/em><\/p>\n<h6 id=\"virtualcamera\"><\/h6>\n<hr class=\"ttfmake-hr\" style=\"border-style: solid;border-top-width: 1px\" \/>\n<h4><strong>&gt; Virtual Camera<\/strong><\/h4>\n<p>Ein Kameraobjekt (z.B. ein iPad), das im realen Raum von einem Trackingsystem erfasst wird, kann aufgrund der Positionsdaten Bilder von einem virtuellen Raum darstellen, der als 3D-Modell von einem Computer emuliert wird. Mit der Software k\u00f6nnen der virtuellen Kamera Objektivbrennweiten, Blende und Sch\u00e4rfeeinstellung zugeordnet werden, so dass ein massstabgetreuer Bildeindruck berechnet werden kann. Durch die Echtzeitleistung des Computers k\u00f6nnen auch Kamerabewegungen praktisch verz\u00f6gerungsfrei dargestellt werden. &gt; <a href=\"#tracking\"><em>Tracking<\/em><\/a> &gt; <a href=\"#previs\"><em>Previs<\/em><\/a> &gt; <a href=\"#mocap\"><em>Motion Capture<\/em><\/a><\/p>\n<h6 id=\"virtualproduction\"><\/h6>\n<hr class=\"ttfmake-hr\" style=\"border-style: solid;border-top-width: 1px\" \/>\n<h4><strong>&gt; Virtual Production<\/strong><\/h4>\n<p>Location Scouting mit der VR-Brille, kollaborative D\u00e9coupage mit Hilfe von Game Engines, Echtzeitsimulationen von VFX-Szenen w\u00e4hrend der Pre-Production: Der Begriff der <em>Virtual Production<\/em> umfasst eine Vielzahl von Werkzeugen, die alle auf der Echtzeit-Darstellung von 3D-Bildwelten basieren.\u00a0Im Mittelpunkt der <em>Virtual Production<\/em> steht die virtuelle Kamera (<a href=\"#virtualcamera\">&gt; <em>Virtual Camera<\/em><\/a>). Sie erm\u00f6glicht den Einblick in den virtuellen Raum,\u00a0der als 3D-Modell in einer Game Engine vorhanden ist. Je nach Kamerarichtung und -bewegung werden der Raum und die darin befindlichen\u00a0<em>Digital Assets<\/em> (3D-Objekte, 3D-Modelle von Menschen etc.) in Echtzeit zu Bildern verarbeitet, wie wenn sich die die Kamera und die Kameraperson in einem realen Umfeld befinden w\u00fcrden. Die virtuelle Kamera hat h\u00e4ufig ein Gegenst\u00fcck in der realen Welt, meistens eine getrackte Kamera mit Display oder ein iPad (vgl. dazu auch <a href=\"#tracking\"><em>&gt; Tracking<\/em><\/a>). So kann sie wie eine regul\u00e4re Kamera bedient werden. Die Kameraperson kann aber auch mit einer Virtual-Reality-Brille direkt in den virtuellen Raum eintauchen. Als virtuelle Kamera dient dann ein Controller des VR-Systems, wobei das Display vor den Augen der Kameraperson emuliert wird. In beiden Varianten k\u00f6nnen\u00a0die generierten Kamerabilder auch aufgezeichnet werden<span style=\"font-size: 1.5rem\">, so dass vor den Dreharbeiten bereits erste Schnittstudien hergestellt werden k\u00f6nnen.<\/span><\/p>\n<p>Aufgrund der steigenden Computerleistungen und neuer Verfahren am Set, wie zum Beispiel der Einsatz von grossen LED-Walls, r\u00fcckt die Zeit n\u00e4her, in der nicht nur Vorvisualisierungen mit <em>Virtual Production<\/em> m\u00f6glich sind, sondern auch definitive Aufnahmen, da die Effekte hochaufl\u00f6send gerendert werden k\u00f6nnen (vgl. auch <a href=\"#incamera\"><em>&gt; In-Camera Effect<\/em><\/a>).<\/p>\n<p><strong>&gt; Links<\/strong>:<em>\u00a0<\/em><a href=\"https:\/\/www.fxguide.com\/fxfeatured\/how-virtual-production-worked-on-set-of-the-lion-king\/\"><em>Virtual Production Lion King<\/em><\/a><em>\u00a0\/ <a href=\"https:\/\/www.youtube.com\/watch?v=KCnayCnM6Zk\">The Lion King 2019 &#8211; Making Of<\/a>\u00a0 \/\u00a0<\/em>Und eine \u00dcbersicht \u00fcber das Thema, auch im Hinblick auf die Produktionsm\u00f6glichkeiten ausserhalb von Hollywood, bietet die Webseite <a href=\"https:\/\/nofilmschool.com\/2018\/03\/virtual-production-indie-filmmakers\">nofilmschool.com<\/a><\/p>\n<h6 id=\"virtualreality\"><\/h6>\n<hr class=\"ttfmake-hr\" style=\"border-style: solid;border-top-width: 1px\" \/>\n<blockquote>\n<h4 id=\"vr\"><strong>&gt; Virtual Reality<\/strong><\/h4>\n<h4><span style=\"font-size: 1.5rem\">Als virtuelle Realit\u00e4t (kurz: VR) gilt die Darstellung und gleichzeitige Wahrnehmung von digitalen 3D-Welten. Die simulierte Erfahrung kann der realen Welt entsprechen und auf fotorealistischen Aufnahmen (360\u00b0-Video oder &gt; <a href=\"#fotogrammetrie\"><em>Fotogrammetrie<\/em><\/a>) beruhen oder komplett mit computergenerierten Bildwelten gestaltet sein. Die bisher \u00fcbliche Form der VR-Erfahrung beruht auf speziellen Brillen oder Headsets. Eine Person, die Virtual-Reality-Ger\u00e4te verwendet, kann sich in der k\u00fcnstlichen Welt umsehen, sich darin bewegen und mit virtuellen Funktionen oder Gegenst\u00e4nden interagieren. Im Kontext von &gt; <a href=\"#virtualproduction\"><em>Virtual Production<\/em><\/a> wird VR eingesetzt, um eine direkte Erfahrung von fotorealistischen oder computergenerierten Filmsets zu erm\u00f6glichen. Dadurch kann die Szenenaufl\u00f6sung mit der &gt; <a href=\"#virtualcamera\"><em>Virtual Camera<\/em><\/a> oder auch die Lichtsetzung simuliert werden.<\/span><\/h4>\n<h6 id=\"volucap\"><\/h6>\n<hr class=\"ttfmake-hr\" style=\"border-style: solid;border-top-width: 1px\" \/>\n<\/blockquote>\n<blockquote>\n<h4><strong>&gt; Volumetric Capture (Videogrammetrie)<\/strong><\/h4>\n<\/blockquote>\n<p>Volumetrische Aufnahmen basieren auf der &gt; <a href=\"#fotogrammetrie\"><em>Fotogrammetrie<\/em><\/a>, mit dem Unterschied, dass gleichzeitig mehrere Aufnahmen pro Sekunde gemacht werden. In speziellen Studios werden mit einer Vielzahl von r\u00e4umlich angeordneten Videokameras die Daten bereit gestelt, um 24 (oder mehr) 3D-Modelle pro Sekunde zu berechnen. Das Verfahren wird auch <em>Videogrammetrie<\/em> genannt. Volumetrische Aufnahmen f\u00fchren zu enorm hohen Datenmengen, die f\u00fcr die Echtzeit-Darstellung erheblich reduziert werden m\u00fcssen. Momentan werden volumetrische Aufnahmen vor allem f\u00fcr Anwendungen im Bereich Virtual Reality oder Augmented Reality verwendet. So wird beispielsweise der \u00abbegehbare Film\u00bb f\u00fcr VR-Efahrungen m\u00f6glich.<\/p>\n<p><strong>&gt; Links:<\/strong> Volumetrisches Aufnahmestudio in Potsdam: <a href=\"http:\/\/www.volucap.de\">Volucap<\/a>\u00a0\/ Bericht in den <a href=\"https:\/\/www.youtube.com\/watch?v=rbnT6Ro--vE\">Tagesthemen<\/a> \/ l\u00e4ngerer Bericht auf <a href=\"https:\/\/www.youtube.com\/watch?v=HI1YiuXcTnw\">3sat<\/a><\/p>\n<p>&nbsp;<\/p>\n<hr class=\"ttfmake-hr\" style=\"border-style: solid;border-top-width: 1px\" \/>\n<h4>&gt; <strong><a href=\"https:\/\/blog.zhdk.ch\/zfiction\/\">HOME<\/a>\u00a0 <\/strong><\/h4>\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>&gt; 3D-Laserscanning Bei der Vermessung von Objekten oder R\u00e4umen mit Hilfe rotierender Laserstrahlen entstehen dreidimensionale Punktwolken (Point Clouds), die in digitale 3D-Modelle umgerechnet werden k\u00f6nnen. Um ein vollst\u00e4ndiges Modell zu erhalten, braucht es mehrere Scans von unterschiedlichen Standorten. Optimale Texturen werden h\u00e4ufig erreicht, indem das Scanning mit der Methode der &gt; Fotogrammetrie kombiniert wird. Laserscans &hellip;<\/p>\n","protected":false},"author":3673,"featured_media":0,"parent":0,"menu_order":0,"comment_status":"closed","ping_status":"closed","template":"","meta":{"footnotes":""},"class_list":["post-766","page","type-page","status-publish","hentry"],"_links":{"self":[{"href":"https:\/\/blog.zhdk.ch\/zfiction\/wp-json\/wp\/v2\/pages\/766","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/blog.zhdk.ch\/zfiction\/wp-json\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/blog.zhdk.ch\/zfiction\/wp-json\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/blog.zhdk.ch\/zfiction\/wp-json\/wp\/v2\/users\/3673"}],"replies":[{"embeddable":true,"href":"https:\/\/blog.zhdk.ch\/zfiction\/wp-json\/wp\/v2\/comments?post=766"}],"version-history":[{"count":82,"href":"https:\/\/blog.zhdk.ch\/zfiction\/wp-json\/wp\/v2\/pages\/766\/revisions"}],"predecessor-version":[{"id":2707,"href":"https:\/\/blog.zhdk.ch\/zfiction\/wp-json\/wp\/v2\/pages\/766\/revisions\/2707"}],"wp:attachment":[{"href":"https:\/\/blog.zhdk.ch\/zfiction\/wp-json\/wp\/v2\/media?parent=766"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}