253
edits
Line 6: | Line 6: | ||
===Technische Umsetzung=== | ===Technische Umsetzung=== | ||
Mittels einer an der Decke angebrachten Kamera (Kinect) werden die Koordinaten eines sich auf der Fläche bewegenden Objektes aus der Vogelperspektive gewonnen und per TUIO-Protokoll an Pure Data gesendet. Dort findet die Interpretation der Positionsdaten statt. | |||
Grundlegend gehen wir von einer ebenen Fläche aus, die auf ihren beiden Achsen jeweils halbiert wird, sodass 4 einerander identische Teilquadrate entstehen. Diese Quadrate repräsentieren Klangräume, von denen jeder einzelne eine zusätzliche Substrukturierung besitzt, über die sich seine Funktionen und Eigenschaften genauer definieren lassen. | Grundlegend gehen wir von einer ebenen Fläche aus, die auf ihren beiden Achsen jeweils halbiert wird, sodass 4 einerander identische Teilquadrate entstehen. Diese Quadrate repräsentieren Klangräume, von denen jeder einzelne eine zusätzliche Substrukturierung besitzt, über die sich seine Funktionen und Eigenschaften genauer definieren lassen. | ||
Line 15: | Line 17: | ||
[[File:squaredance.jpg|thumb|Graphische Repräsentation in GEM - unterschiedliche Transparenzen zeigen den Aufenthaltsort und genutzte Substruktur an]] | [[File:squaredance.jpg|thumb|Graphische Repräsentation in GEM - unterschiedliche Transparenzen zeigen den Aufenthaltsort und genutzte Substruktur an]] | ||
In Raum A steuern die Bewegungskoordinaten einen kleinen Zufalls-Ton-Generator in Moll. Es werden MIDI-Informationen erzeugt und per [noteout] an einen variablen Sample-Player von Ableton Live weitergereicht.<br> | In Raum A steuern die Bewegungskoordinaten einen kleinen Zufalls-Ton-Generator in Moll. Es werden MIDI-Informationen erzeugt und per [noteout] an einen variablen Sample-Player von Ableton Live weitergereicht.<br> |
edits