GMU:Audio+Video/projekte: Difference between revisions

From Medien Wiki
 
(35 intermediate revisions by 7 users not shown)
Line 1: Line 1:
Dokumentation der im Kurs [[GMU:Audio%2BVideo| Audio + Video]] entstandenen Projekte:
Dokumentation der im Kurs [[GMU:Audio%2BVideo| Audio + Video]] entstandenen Projekte:


==[[Anja Erdmann]]: [[/Schatten->Klang|Schatten->Klang]]==
==[[Anja Erdmann]]: [[/Schatten→Klang|Schatten→Klang]]==
[[Image:Still-av_01.png|thumb|right|250px|Schatten]]
[[Image:Still-av_01.jpg|thumb|right|250px|Schatten]]
Aus Licht und Schatten, bzw. ihren Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.
Aus Licht und Schatten, bzw. ihren Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.


[[/Schatten->Klang|Projektdokumentation]]
[[/Schatten→Klang|Projektdokumentation]]
<br clear="all" />
<br clear="all" />


Line 23: Line 23:
<br clear="all" />
<br clear="all" />


==[[Florian Erdmenger]]: Link to the Past==
==[[Florian Erdmenger]]: [[/Link to the Past|Link to the Past]]==
Ich möchte einen Patch bauen mit dem es möglich ist mehrere soundfiles(einzelne Wörter) zufällig anzuordnen, sodass sie einen neuen Sinn ergeben. Das ganze passiert nach einem Telefonat in die Vergangeheit( eine 30's Videosequenz mit einer Person am Telefon wäre ganz passend - !für Hinweise wäre ich dankbar). Um die Person(im Video) an das Telefon zu bekommen, ist es nötig eine zufällige bestimmte Schlüsselmelodie("Pastkey") nachzusummen. Ist das ziel ereicht, wird die Person dem Anrufer einen verschleierten Satz verraten , aus dem jeder seine ganz eigene Zukunft deuten kann. Dem Computer wird somit eine Art persönlichkeit/intelligenz verliehen. Zusätzlich möchte ich ein Headset in ein Telefonhörer einbauen den ich futuristisch gestalten werde. Weiterer Ausbau noch in Planung - werde versuchen video noch stärker zu integrieren...


Hallo Florian, eine Filmsequenz von einem Telefonat findest du bestimmt bei [http://www.archive.org/search.php?query=%28phone%29%20AND%20mediatype%3A%28Movies%29%20AND%20date%3A&#91;1800-01-01%20TO%201950-01-01&#93; Archive.org] --[[User:Max|max]] 16:00, 31 March 2010 (UTC)
[[Image:A+V F.E. (2).png|thumb|right|250px|Link to the Past]]
Eine interactive Reise in die Vergangenheit.
 
[[/Link to the Past|Projektdokumentation]]
<br clear="all" />


==[[Johann Niegl]]: [[/PDGame|PDGame]]==
==[[Johann Niegl]]: [[/PDGame|PDGame]]==
[[Image:PDgame2.jpg|thumb|right|250px|PdGame]]
Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.
Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.


Line 34: Line 38:
<br clear="all" />
<br clear="all" />


==[[Laura Jozefini]]: ==
==[[Laura Jozefini]]: [[/Partikelmaker|Partikelmaker]]==
Dieser Patch ist ein kleines Programm, das auf visuellen Input reagiert und diesen in einen abstrakten Bewegungsmelder umwandelt.
[[Image:Av4.JPG|thumb|right|250px|Partikelmaker]]
# Prinzip<br />Der Nutzter des Patches kann mit Hilfe einer Kamera seine Bewegungen in abgewandelter Form aufzeichnen.
Ein kleines Programm, das auf visuellen Input reagiert und diesen in einen abstrakten Bewegungsmelder umwandelt.
# Konzept<br />Der Patch ist eine ganz einfache und schnelle Form der Interaktion. Es ist ein Bewegungsmelder, der dem Nutzer ein schnelles Ergebnis liefert, ohne das dieser lange warten muss. Man muss nicht lange Grübeln und Nachdenken um ein Ergebnis zu erzielen. Eine zufällige Bewegung vor der Kamera reicht und schon hat man den Sinn des Ganzen verstanden.
# Umsetzung<br /> PD machte es möglich visuellen Input auf verschiedenste Art und Weise in das eigene Programm einzubinden und zu verarbeiten.


Die Hauptaufgabe des Patches ist es diesen visuellen Input auf Bewegungen allein zu reduzieren und dann in ein Partikelsystem umzuwandeln. Zuerst wird das von einer Kamera aufgenommene Bild durch die Verwendung von pix_movement, und der damit eingebauten threshold, auf die Darstellung von Bewegungen reduziert.
[[/Partikelmaker|Projektdokumentation]]
 
<br clear="all" />
Die durch die Bewegungen entstehenden Farbwerte werden an das Partikelsystem gesand. Damit jedoch ein deutlicher Zusammenhang zwischen dem Austoß von Partikeln und der dargestellten Bewegung erkenntlich wird, werden nur Partikel gebildet, wenn auch Bewegung vorhanden ist.
 
In einer weiteren Ebene des Patches wird eine zeitliche Modifikation des Ausstoßes der Partikel aufgezeichnet. Diese Ebene entsteht, indem im framebuffer aus einem bestimmten Pixel-Bereich des Partikelsystems ein Bild „genommen“ wird (pix_snap Objekt). Dieses Bild wird dann im pix_rtx Objekt weiterverwendet.
 
Die Modifikationsebene wird dann auch für den auditiven Output verwendet. Aus den Farbwerten werden die Grauwerte rausgefiltert und nicht nur auditiv sondern auch visuelle in einem Graph wieder gegeben.
 
[[File:LJ_AV.zip]]
<gallery>
File: Av1.JPG
File: Av4.JPG
File: Av5.JPG
File: Av6.JPG
</gallery>
Noch ein Audio-File:
<flashmp3 id="Av_wsprojekt.mp3"> Av_wsprojekt.mp3</flashmp3>
<br/>
Und ein Video:<br/>
<videoflash type="vimeo">10808794|400|300</videoflash>


==[[Mathieu Rathelot]]: Title of the work==
==[[Mathieu Rathelot]]: Title of the work==
Line 83: Line 67:
* [http://www.fairaudio.de/hifi-lexikon-begriffe/stehende-welle-raummoden.html Stehende Welle &mdash; Hifi-Lexikon]
* [http://www.fairaudio.de/hifi-lexikon-begriffe/stehende-welle-raummoden.html Stehende Welle &mdash; Hifi-Lexikon]
===Bang-Server===
===Bang-Server===
Etwas mehr technisches. Der Bang Server soll eine Möglichkeit sein Puredata bangs mit Timestamp und optionalen Datenpaket dezentral zu verteilen. So kann eine Puredata Instanz ein Bang und Datenpaket an den Server senden, welcher diese dann an alle andern verbunden Client verteilt. Neben der Echtzeit Komponente soll es noch ein API geben mit dem man die letzten n Bangs erhalten kann.
Etwas mehr technisches. Der Bang Server soll eine Möglichkeit sein Pure Data bangs mit Timestamp und optionalen Datenpaket dezentral zu verteilen. So kann eine Pure Data Instanz ein Bang und Datenpaket an den Server senden, welcher diese dann an alle andern verbunden Client verteilt. Neben der Echtzeit Komponente soll es noch ein API geben mit dem man die letzten n Bangs erhalten kann.


==[[Meredith Barnes]]: Stop yelling at me==
==[[Meredith Barnes]]: [[/Stop yelling at me|Stop yelling at me]]==
a work-in-progress interactive animation video.  
[[Image:stop_yelling.jpg|thumb|right|250px|Screen shot.]]
a work-in-progress interactive animation video.


My aim was to create an interactive animation, in which the audience interacts with an animated drawn person on a screen. A person may interact with the animation by making a sound within a specified threshold, specific to the area in which the installation is set up. By making a sound within the threshold, a person will make part of an animated video play. In order to make the entire duration of the video play, the person must make continuous sound. The sound the interacting person makes is then played back to them after a delay.
[[/Stop yelling at me|Project documentation]]
# Concept<br />The concept for this work is part playful, part pseudo psychological. When the entire installation is realised, the animated person will be saying to the participant ‘stop yelling at me’. The only way to make the entire animation play, and to fully interact with the work, will be to keep making sound or ‘keep yelling’ at the character against its requests. One will then hear back the sound or ‘yelling’ they have created. The installation is designed to test what lengths people will go to in interacting with an artwork. As the viewer hears back the sound they have made after a delay, they are reminded of their own choices. If I were to continue this project, I would also like to have various different animated possibilities, so that if someone kept making noise, the animated person could get angrier and angrier or perhaps sadder and sadder.<br /> The Pure Data patch is a simple patch using a microphone to detect sound within a threshold, and playing it back out of speakers after a delay. Once the sound is detected it causes the video to play with GEM. The video will continue to play if sound is detected in the previous second, otherwise GEM will receive the stop message.
 
#Influences<br />Narinda shipowner: Help Yourself - interactive self-help desk, ‘Experimenta Playground’ exhibition, 2007 Carriageworks, Sydney.
<br clear="all" />
[http://www.campbelltown.nsw.gov.au/default.asp?iNavCatID=2572&iSubCatID=2744 Mirror States] exhibition 2006, Campbelltown City Arts Centre, Sydney.
In particular:
* Alex Davies Dislocation 2005
* John Tonkin Time and Motion Study 2006


==[[User:WSebastian|Sebastian Wolf]]: Applaus==
==[[User:WSebastian|Sebastian Wolf]]: [[/Applaus|Applaus]]==


Ziel soll ein patch sein, der aus '''einem''' in-die-Hände-Klatschen '''etliche''' macht, aus dem Applaus einer einzelnen Person den einer Menschenmasse.
Ziel soll ein patch sein, der aus '''einem''' in-die-Hände-Klatschen '''etliche''' macht, aus dem Applaus einer einzelnen Person den einer Menschenmasse.
''damit man sich selbst applaudieren kann ;)''
''damit man sich selbst applaudieren kann ;)''


Vor allem auf technischer Ebene ist das eine Herausforderung. Gerade aufgrund der relativ komplexen Struktur des patches und der Verarbeitung des Inputs. In erster Linie wird das also ein Weg sein, tiefer in PureData einzutauchen.
Vor allem auf technischer Ebene ist das eine Herausforderung. Gerade aufgrund der relativ komplexen Struktur des patches und der Verarbeitung des Inputs. In erster Linie wird das also ein Weg sein, tiefer in Pure Data einzutauchen.


Das Ganze geschieht im Wechselspiel zwischen Benutzer und Computer. So reagiert der Rechner auf jeden Beifall den man IHM gibt mit einem größereren und stärkeren Applaus seinerseits. Nun ist der Mensch wieder an der Reihe - die Maschine fordern, ihr etwas zum imitieren geben. Natürlich beschränkt sich das nicht nur auf schnödes Klatschen, auch andere Geräusche werden vom Programm aufgenommen, vervielfacht und verfremdet. Im Laufe der Zeit entstehen auf diese Weise interessante Klänge und abstrakte Geräuschkulissen.
Das Ganze geschieht im Wechselspiel zwischen Benutzer und Computer. So reagiert der Rechner auf jeden Beifall den man IHM gibt mit einem größereren und stärkeren Applaus seinerseits. Nun ist der Mensch wieder an der Reihe - die Maschine fordern, ihr etwas zum imitieren geben. Natürlich beschränkt sich das nicht nur auf schnödes Klatschen, auch andere Geräusche werden vom Programm aufgenommen, vervielfacht und verfremdet. Im Laufe der Zeit entstehen auf diese Weise interessante Klänge und abstrakte Geräuschkulissen.

Latest revision as of 13:44, 26 May 2011

Dokumentation der im Kurs Audio + Video entstandenen Projekte:

Anja Erdmann: Schatten→Klang

Schatten

Aus Licht und Schatten, bzw. ihren Bewegungen sollen Klänge generiert werden. In diesem Fall auf Grundlage des Videos.

Projektdokumentation

Cédric Richard: MusicPainter

the patch

A player patch, using multitracked musics to create a numeric animated painting.

Project documentation


Dominique Wollniok: VerkehrsMalerei

Verkehrsmalerei

Verkehrsstraßen sind die Adern einer Stadt. Besonders im Dunklen zeichnen Autos diese nach. Motor-Geräusche überlagern sich und man bekommt den Eindruck von einem rauschenden Meer. Mit meinem Projekt werden die Adern sichtbar und ergeben schließlich ein Netz von Lichtern. Man kann dabei zusehen, wie sich Lichtbahnen überkreuzen.

Projektdokumentation

Florian Erdmenger: Link to the Past

Link to the Past

Eine interactive Reise in die Vergangenheit.

Projektdokumentation

Johann Niegl: PDGame

PdGame

Das PDGame ist ein Projekt, das auf spielerische Weise unterschiedliche Reize miteinander verknüpft. Es handelt sich dabei um ein interaktives Programm das auf auditiven Input visuell und auditiv reagiert.

Projektdokumentation

Laura Jozefini: Partikelmaker

Partikelmaker

Ein kleines Programm, das auf visuellen Input reagiert und diesen in einen abstrakten Bewegungsmelder umwandelt.

Projektdokumentation

Mathieu Rathelot: Title of the work

Wavefield-Synthesis

This semester, I was interested by working on the sound for a 3D TV project with a wave field synthesis system. But after many test, I realized that it would be to difficult for me to learn how work the WFS system and the 3D system in the same time in only six months. So I decided to make a radio drama with the WFS system.

This radio drama length is about 7 minutes. The story take place in a space shuttle. I used pure data to do the spatialization of my sound. On my patch I had three slider for the three axis X,Y and Z wich I can change the position of a sound. I made an automation to change the position of the character during the story.

This is a version of my radio drama without mix. To listen my work you need a WFS system :


<flashmp3 id="WFS-RADIO-DRAMA-MATHIEU-RATHELOT.mp3">WFS-RADIO-DRAMA-MATHIEU-RATHELOT.mp3</flashmp3>

Matthias Breuer

Raummode

Ziel ist es, ein autonomes Gerät zu konstruieren, dass zwischen zwei parallelen Flächen eine stehende Schallwelle erzeugt. Mittels eines Oszillators, dessen Frequenz stetig inkrementiert wird, findet das Gerät die Frequenz mit der maximalen Amplitude, welche schliesslich die stehende Welle ist.

Bang-Server

Etwas mehr technisches. Der Bang Server soll eine Möglichkeit sein Pure Data bangs mit Timestamp und optionalen Datenpaket dezentral zu verteilen. So kann eine Pure Data Instanz ein Bang und Datenpaket an den Server senden, welcher diese dann an alle andern verbunden Client verteilt. Neben der Echtzeit Komponente soll es noch ein API geben mit dem man die letzten n Bangs erhalten kann.

Meredith Barnes: Stop yelling at me

Screen shot.

a work-in-progress interactive animation video.

Project documentation


Sebastian Wolf: Applaus

Ziel soll ein patch sein, der aus einem in-die-Hände-Klatschen etliche macht, aus dem Applaus einer einzelnen Person den einer Menschenmasse. damit man sich selbst applaudieren kann ;)

Vor allem auf technischer Ebene ist das eine Herausforderung. Gerade aufgrund der relativ komplexen Struktur des patches und der Verarbeitung des Inputs. In erster Linie wird das also ein Weg sein, tiefer in Pure Data einzutauchen.

Das Ganze geschieht im Wechselspiel zwischen Benutzer und Computer. So reagiert der Rechner auf jeden Beifall den man IHM gibt mit einem größereren und stärkeren Applaus seinerseits. Nun ist der Mensch wieder an der Reihe - die Maschine fordern, ihr etwas zum imitieren geben. Natürlich beschränkt sich das nicht nur auf schnödes Klatschen, auch andere Geräusche werden vom Programm aufgenommen, vervielfacht und verfremdet. Im Laufe der Zeit entstehen auf diese Weise interessante Klänge und abstrakte Geräuschkulissen. Das regt zum Ausprobieren und Herumspielen an. Auch der visuelle Output weckt Interesse – was passiert da, wie reagiert es auf mich?

Video macht leider Probleme! Dafür hier aber der (nicht ganz so aussagekräftige) Ton dazu.

<flashmp3 id="Applaus-audio.mp3">Applaus-audio.mp3</flashmp3>