GMU:Spur, Weg, Vektor/sechste Aufgabe/EarMOTION: Difference between revisions

From Medien Wiki
mNo edit summary
 
(10 intermediate revisions by 3 users not shown)
Line 1: Line 1:
== Motivation ==
== Motivation ==
Lässt sich das Körpergefühl eines Menschen beeinflussen, indem seine Bewegungen mit Klängen kombiniert werden?
Inwiefern lässt sich das Körpergefühl eines Menschen beeinflussen, indem seine Bewegungen mit Klängen kombiniert werden?
Diese Frage ist ohne Weiteres nicht zu beantworten. Mithilfe von OSCeleton, Pure Data und SimpleSynth näherten wir uns dem Thema an.


Wir haben uns der Beantwortung dieser Frage gestellt. Mit OSCeleton, PureData und SimpleSynth erstellten wir einen Patch, der uns die Möglichkeit gibt genau das in Selbstexperimenten zu testen.
== Umsetzung ==
 
[[File:pk-2011-EarMOTION-code.jpg|thumb|Screenshot bei der Arbeit]]
-----> Was ist uns dadurch über unser Körpergefühl bewusst geworden?
Zahlen, Bewegungen und akustische Signale unter einen Hut zu bringen bedarf einiger Vorbereitung. Nur durch ständiges Experimentieren, Verwerfen, Umstrukturieren und Andersmaches sind wir mit dem Projekt voran gekommen. Entstanden ist ein audiovisuelles Tool, dass sich mehr oder weniger intuitiv steuern lässt - pathetischerweise heißt es fortan "EarMOTION". Es bleibt nach wie vor ein experimenteller Ansatz zur Annäherung an die eingangs gestellte Frage und erhebt keinen Anspruch auf ein vollständiges Konzept.
 
<br clear="all" />
== Funktion des Earmotion ==
Beiden Händen werden Instrumente zugeteilt, die man aus einer virtuellen Liste auswählen kann, in dem man mit der Hand den gegenübeliegenden Ellebogen berührt um ein Instrument vorzuspulen oder an die gegenüberliegende Schulter, um ein Instrument zurück zu spulen. Durch hoch und runter bewegen der Hände werden Töne des


== Umsetzung ==
== Funktion ==
Das Tool ist in einzelne Bewegungseinheiten gegliedert.


== Funktionen ==
Wird der Kopf geneigt, ertönt ein sphärischer Sound. Mit einer Hand wird ein Instrument dirigiert, während die Andere hauptsächlich als Schalter dient. Mit ihr kann die Lautstärke geändert oder aber ein anderes Instrument ausgewählt werden. Der Bewegung der Füße sind Percussionelemente zugeordnet. Geht man aber in die Knie wird der Ton gebeugt.
Weitere Ideen werden momentan auf ihre Konzepttauglichkeit geprüft. Andere haben wir verworfen und für einige war die Zeit leider zu knapp.
<videoflash type=vimeo>33558678|530|300</videoflash>

Latest revision as of 15:44, 21 December 2011

Motivation

Inwiefern lässt sich das Körpergefühl eines Menschen beeinflussen, indem seine Bewegungen mit Klängen kombiniert werden? Diese Frage ist ohne Weiteres nicht zu beantworten. Mithilfe von OSCeleton, Pure Data und SimpleSynth näherten wir uns dem Thema an.

Umsetzung

Screenshot bei der Arbeit

Zahlen, Bewegungen und akustische Signale unter einen Hut zu bringen bedarf einiger Vorbereitung. Nur durch ständiges Experimentieren, Verwerfen, Umstrukturieren und Andersmaches sind wir mit dem Projekt voran gekommen. Entstanden ist ein audiovisuelles Tool, dass sich mehr oder weniger intuitiv steuern lässt - pathetischerweise heißt es fortan "EarMOTION". Es bleibt nach wie vor ein experimenteller Ansatz zur Annäherung an die eingangs gestellte Frage und erhebt keinen Anspruch auf ein vollständiges Konzept.

Funktion

Das Tool ist in einzelne Bewegungseinheiten gegliedert.

Wird der Kopf geneigt, ertönt ein sphärischer Sound. Mit einer Hand wird ein Instrument dirigiert, während die Andere hauptsächlich als Schalter dient. Mit ihr kann die Lautstärke geändert oder aber ein anderes Instrument ausgewählt werden. Der Bewegung der Füße sind Percussionelemente zugeordnet. Geht man aber in die Knie wird der Ton gebeugt. Weitere Ideen werden momentan auf ihre Konzepttauglichkeit geprüft. Andere haben wir verworfen und für einige war die Zeit leider zu knapp. <videoflash type=vimeo>33558678|530|300</videoflash>