1

TFH Berlin, FB VI, LV ATM, Prof. Godbersen, WS 2008/09

Internet Recherche zum Thema:

Innovative Interaktionstechniken Management Summaries Inhalt: Blaß,

Alexander:

reacTable

2

Brunner,

Sabrina:

AudioCubes

3

Duckstein,

Nadine:

Xenakis

4

Jochim,

Alexandra:

Timbap

5

Kunz,

Katharina:

TVviews Table

6

Poljaric,

Bozenko:

ZCam

7

Temizkan,

Feridun:

Butterfly Haptics

8

Unfried,

Markus:

Audiopad

9

Ziegele,

Oleg:

Arduino

10

Stand 28.10.2008

2

Vorlesung Ausgewählte Themen Medien, WS 2008/2009 – Alexander Blaß (730122)

Recherche zum Thema 'reacTable' reacTable ist ein elektronisches Musikinstrument mit einem neuartigen User-Interface. Es handelt sich dabei um einen Tisch mit dem mehrere Benutzer gleichzeitig interagieren können indem sie spezielle Bausteine darauf platzieren oder mit den Fingern die Tischoberfläche berühren. Der Tisch hat eine leicht transparente Oberfläche auf die von unten mit einem Projektor eine grafische Darstellung des Synthesizers projiziert wird. Durch Platzieren von Bausteinen auf dem Tisch wird ein modularer Synthesizer erstellt, der in Echtzeit Klänge erzeugt. So gibt es 6 verschiedene Gruppen von Synthesizer Bausteinen: Generatoren (Oszillatoren, Sample Player), Audio Filter, Controller (z.B. LFO, Sequenzer), Control Filter, Audio Mixer und Globale Objekte (z.B. Metronom). Wird ein Baustein auf dem Tisch in der Nähe eines oder mehrerer anderer Bausteine platziert so beginnt er mit diesen zu interagieren. Bestimmte charakteristische Parameter eines Bausteins können vom Benutzer manipuliert werden indem der Baustein auf dem Tisch gedreht wird. Außerdem kann ein weiterer Parameter durch Berühren und Ziehen des Fingers auf der Tischfläche unmittelbar um einen Baustein herum kontrolliert werden. Abbildung 1: reacTable

Die Darstellung der Verbindungen der einzelnen Synthesizer Module erfolgt bei Audio-Verbindungen als Wellenform, bei Control-Verbindungen wird die Dichte und Intensität der übermittelten Werte grafisch visualisiert. Diese Form der Darstellung ermöglicht einen vollständigen Verzicht auf jegliche Ausgabe von numerischen Werten. Das komplexe Zusammenspiel der einzelnen Synthesizer-Bausteine wird auf einen Blick intuitiv erfassbar. Entwickelt wurde reacTable von 4 Mitarbeitern der Music Technology Group an der Universität Pompeu Fabra in Barcelona. Der reacTable Tisch besteht aus einem unter dem Tisch angebrachten Projektor und einer Digitalkamera. Die Tischoberfläche ist mit einer diffus-transparenten Folie (z.B. Transparent Papier) bedeckt, so dass einerseits von unten ein Bild auf sie projiziert werden kann und andererseits Gegenstände die direkt die Tischoberfläche berühren von unten klar erkennbar werden. Die Digitalkamera unter dem Tisch nimmt dabei nur im infraroten Lichtbereich auf, so dass die projizierte Darstellung des Synthesizers die Bilderkennung nicht beeinflusst. Hierzu sind am Rand unterhalb der Tischoberfläche Infrarot LEDs angebracht die den Tisch von unten beleuchten. Die Software die bei reacTable die Erkennung der auf dem Tisch platzierten Bausteine und der Fingergesten übernimmt wurde als open source unter dem Namen reacTIVision veröffentlicht.

Quellen / Links reacTable Website - http://reactable.iua.upf.edu/ The reacTable: Exploring the Synergy between Live Music Performance and Tabletop Tangible Interfaces Jordà, S. & Geiger, G. & Alonso, M. & Kaltenbrunner, M. - http://reactable.iua.upf.edu/pdfs/reactable_tei2007.pdf reacTable Video - http://de.youtube.com/watch?v=0h-RhyopUmc

3

Audiocubes Hersteller: Percussa http://www.percussa.com Preis: 399.00  (2er Set), 649,00 (4er Set)  Stand Oktober 2008 laut Online Shop des Herstellers System: Windows XP (oder später), Mac OSx 10.4 (oder später) Die Anleitungen sind auf der Herstellerwebseite erhältlich. Sie werden dort durch ein Wiki realisiert in den Sprachen: English, Japanisch, Deutsch, Spanisch und Italienisch. Deutsch siehe: http://manuals.percussa.com/index.php?title=Main_Page&setlang=de Ausführlich Dokumentation zu den Punkten: • Audio Cubes Getting Started Handbuch • Audio Cubes MIDI Bridge Handbuch • Audio Cubes Referenz Handbuch • Audio Cubes Upgrade Handbuch • Audio Cubes Bending Handbuch • Audio Cubes Installations Die zur Installation nötige Software wird mitgeliefert, kann aber auch kostenlos vom Hersteller herunter geladen werden. Jedes Set verfügt über einen Masterwürfel welcher über USB an den Rechner angeschlossen wird. Beliebig viele weitere Cubes kommunizieren schnurlos untereinander und ermöglichen fast unendliche Kontrollmöglichkeiten für den Live oder Studioeinsatz. Jeder einzelne Würfel ist ein kleiner Rechner. Die Kommunikation untereinander erfolgt per Infrarotschnittstelle, hierüber wird die Entfernung zu den anderen Cubes bzw. zu anderen Gegenständen gemessen. Jede Seite bis auf Boden und Oberfläche besitzt einen eigenen Infrarotsensor. Dadurch lassen sich Soundeffekte, Filter, Tempoänderungen etc. steuern. Jedem Cube kann via Klinkenbuchse ein eigener Ton bzw. Sample zugewiesen werden. Des Weiteren können sie in 4096 Farben blinken und zu Musikdateien getriggert werden. Die Cubes können zusätzlich ihre Farbe wechseln. Die Cubes werden batteriebetrieben. Programme wie Reason, Ableton, Cubase etc. können mit den Würfeln gesteuert werden, hierbei werden MIDI-Signale ausgesendet, daher ist es relativ unwichtig welche Software man wählt. Auch ein Standalone-Einsatz als Soundgeneratoren, die sich gegenseitig beeinflussen, ist möglich. Zwar werden die Audiocubes auf diversen Internet Seiten als das Nonplusultra in der Musikszene vorgestellt, es ist aber auch möglich sie als Eingabegerät anstatt einer Maus oder ähnlichem einzusetzen.

Recherche für ATM WS ’08



4

s732792

Xenakis Combining tangible interaction with probability-based musical composition

Viele haben schon davon geträumt eigene Musik zu komponieren, doch ist es meist beim Träumen geblieben. Dies muss aber nicht sein, wenn Musikmachen so einfach wäre, wie mit Bauklötzen zu spielen. Sechs Studenten der Uni Augsburg machen dies möglich. Für ein Uniprojekt im Sommersemester ‘07 im Studiengang Softwaretechnik haben sie einen Tisch konstruiert, der durch Bewegung von Steinen Zufallsmusik erzeugt, sogenannte stochastische Musik. Mit nur 3 verschiedenen Steinformen lassen sich Instrumente auswählen und Notenhöhen & -längen bestimmen. Die jeweilige Position der Steine wird per Kameratracking erfasst und anschließend in entsprechende Musik- und Lichteffekte umgesetzt. Die Attribute eines Instrumentes werden durch den Abstand der entsprechenden Steine zu dem Instrumentenstein bestimmt. Dabei wird das nähstliegende am wahrscheinlichsten gewählt. Es bleibt dabei aber immernoch ein Spielraum für Zufallsentscheidungen. Namensgeber des Projektes war der griechische Komponist Iannis Xenakis, der die stochastische Musik als seinen eigenen Kompositionsstil entwickelt hat.

Hinter Xenakis steht die Idee, die Prinzipien der stochastischen Musik auch allgemein zugänglicher zu machen. Dieses Ziel scheinen die 6 Studenten aus Augsburg erreicht zu haben, denn Xenakis wurde auf der TEI (Tangible Embedded Interaction) ‘08 als innovativste Idee ausgezeichnet. Die Applikation “Xenakis” basiert auf dem TWING (Tangible and Multitouch interface based applications) Framework und wurde von den Studenten eigens für dieses Projekt in C# umgesetzt. Jetzt ist TWING unter der GNU LESSER GENERAL PUBLIC LICENSE ein open source Framework. Die Entwickler versprechen nicht nur viel Spaß beim Erschaffen einzigartiger Musik, sondern auch ein anregendes Audiovisuelles Erlebnis. Weiterführende Informationen zu Xenakis gibt es unter folgendem Link: http://www.xenakis.3-n.de.

5

Recherchedokument "Timbap" Kurs: ATM – Innovative Interaktionstechniken

T ANGIBLE U SER I NTERFACES – T IMBAP A new solution for the digital DJ Ti m bap i st e in P ro jekt vo n S t ud en te n und Mi t arbe i t e rn d er U n i ve rsi t ät U l m . Es wurd e sp e z i el l für p r o f e s s i o n e l l e D i g i t a l D i s k J o c k e y s (D J ) e nt wi cke lt . Es h an d e l t si ch um ei n e pl at t fo rm un abh än g ig e S o ft ware d i e e i n so g en an n te s T a n g i b l e U s e r I n t e r f a c e (TU I ) – e i ne an fassba re B e n utz e rsch n it t st el l e – z ur V erfüg un g st e ll t . D i e s e rm ög l i ch t de m Nut z e r d i e I n t e r a k t i o n m i t d e m R e chn e r ü b e r p h y s i k a l i s c h e O b j e k t e . I n d i e se m F all d urch e in e n h an d el sübl i ch en Turn t abl e so wi e ei ne r V in y l -Pl at t e mi t akust i sch e m Ti m e co de -S ig n al . D e r D i g i t al DJ ko mm t be im Aufl e ge n al so n un me h r o h n e M a u s , T a s t a t u r u n d M o n i t o r aus. H i e rd u rch wi rd i hm vo r al l em be i Li ve -Auft ri tt en e in e be so n de re H an d h abun g vo n Turn t abl e s un d Re chn ern e rm ög l i ch t . D e r Bl i ck auf d e n B i l d schi rm en t fäl l t ebe n fal l s, d a d i e C o ver d e r d i g i t ale n Tracks auf d e n P l at t e nt e ll e r p ro jiz i ert we rd e n . Ti m bap g e st at te t e s d e m D J , sei ne M e d i e n v e r z e i c h n i s s e z u d u r c h s u c h e n so wi e se ine Musi kst ücke , wi e g ewo h nt , d urch S c r a t c h i n g , P i t c h i n g , S k i p p i n g un d W e i te re s z u m ani p ul i e ren . H ie rfür g e n üg t d as e i n fache Ve rse t z e n d e s To n arm s. W i rd di e P l at te be i spi e l sweise i n R o t at io n ve rset z t , z ei g t d e r Aud io -P l ay e r al l e ve rfüg bare n Musi kt i te l n ache i n an d e r an (si e h e Abbil d un g ). Durch h än d i sche s S t o p pe n de s Turn t abl e kan n m an e in Musi kst ück ausw äh l e n . Ti m bap i st p l a t t f o r m u n a b h ä n g i g i n P ro ce ssi n g im p le m en t ie rt un d basi e rt auf d e m MsP i n ky Tim e co d e Vi n yl S y st em , we l che s m i t e i ne m D eve l o pe r S D K so wie "be aut i ful p i n k re co rd s" ve rt ri e be n wi rd .

Technische Informationen Betriebssystem: Windows 2000, XP, 2003, Vista, Linux, Mac OS X, Mac OS X/Intel Sprache: englisch Laufzeitumgebung: Java Preis: kostenlos (GNU-Lizenz) Download/Link: www.timbap.de Weitere Links: www.processing.org www.mspinky.com

© TFH-Berlin, WS 08/09 Alexandra Jochim, s720707

Seite 1 von 1

TViews: An Extensible Architecture for Multiuser Digital Media Tables & An acoustic position sensing system for large scale interactive displays von Matthew Reynolds, Alexandra Mazalek, Glorianna Davenport (Zusammenfassung des Artikels als Aufgabe im Fach ATM von: Katharina Kunz am 23.10.2008)

6

TViews Table verfolgt das Ziel, eine wirtschaftlich tragbare und multimediale Interaktionsplattform in unseren Lebensräumen zu schaffen. Der Fokus des Projekts lag auf der Problemlösung des Einsatzes von aufspürbaren und greifbaren Interaktionsobjekten auf großen LCD oder Plasma Bildschirmen. TViews benutzt eine neuartige Kombination von akustischem Abtasten und infrarot Kommunikations-Technologien gekoppelt mit verteilter Ablaufsteuerung. Beides findet sowohl in den interaktiven Objekten und dem zentralen Prozessor des Tisches statt, um die Objekte zu erreichen. TViews Hardware: Im Inneren des Tisches befindet sich ein "Master-Control-Board", welches an der Oberfläche angeschlossen ist und die Kommunikation und die Verfolgung von den beliebig vielen Objekten (Pucks) verarbeitet, wenn Benutzer die Pucks auf der Oberfläche platzieren, bewegen und manipulieren. Jeder Puck wird über eine aufladbare Lithium Polymer Batterie betrieben. Die ersten Prototypen sind mit einer Ladung 8-12 Stunden ausgekommen. Weitere Änderungen an den Schaltkreisen der Pucks soll eine Aufladung erst nach Wochen oder Monaten notwendig machen. TViews benutzt akustische Entfernungsmessung, um die Pucks zu lokalisieren. Für die Übertragung sind die an der Unterseite des Display Glases (an allen 4 ecken) befestigten Schallgeber verantwortlich, die in großen Mengen akustische 200KHz Überschall Wellen in die Oberfläche des DisplayGlases schicken. Die Infrarot Sendeempfänger befindet sich in dem Rahmen, der am Rand um die Interaktionsfläche herum angebracht ist. Eine Übermäßige Anzahl billiger Sendeempfänger stellt sicher, dass keine Objektverdeckung die Kommunikation stört. In Zukunft sollen TViews Systeme mit Radiofrequenzen arbeiten, damit dieses Problem ganz umgangen wird. Jeder Puck ist mit einem Überschall Sensor ausgestattet, um die Wellen, die sich unter der Oberfläche der Display Glasplatte bewegen, zu empfangen. Die Pucks sind auch mit Infrarot Sendeempfängern ausgestattet, um die Kommunikation mit dem Tisch in beide Richtungen zu ermöglichen.

TViews Applikation: Die TView API ist in JAVA programmiert und läuft auf einem PC im Inneren des Media Tables. Sie erlaubt dem Entwickler verschiedene Anwendungen für das System zu entwickeln, die eine Kombination von Echtzeit ObjektVerfolgung und eingebetteten Ausgaben ermöglichen. Die Software, die der API zugrunde liegt, verarbeitet die eingehenden Mitteilungen, die vom Master Control Board gesendet werden und wandelt diese Mitteilungen in drei Haupt Ereignistypen: Puck hinzugefügt, Puck entfernt und Puck Metadaten (z.B. Position, usw.) aktualisiert. Die API soll in Zukunft so erweitert werden, dass auch Events an die Pucks gesendet werden können, so könnte er z.B. wenn er mit einem Display ausgestattet wird, könnte man Text-, Bild- oder Videodaten an ihn senden, er könnte aufleuchten, vibrieren oder sich bewegen.

TViews Vision: Um die Möglichkeiten von TViews vorzustellen wurden zwei komplette Systeme konstruiert. Ein Tisch war in Massachusetts der andere in Korea. Es wurden 18 Pucks und 10 Anwendungen entwickelt. Alle Pucks und alle Anwendungen konnten auf beiden Tischen verwendet werden und die Pucks konnten zwischen Anwendungen getauscht werden, die auf verschiedenen Tischen gelaufen sind. Einige der Anwendungen konnten auch schon mit der Buttonerweiterung der Pucks arbeiten (Klick). Durch diese Technik kann man in Zukunft möglicherweise existierenden Geräten wie digitalen Kameras weitere Funktionen hinzufügen. Einige Anwendungen wurden mit Home Entertainment Anlagen verbunden. Dies zeigt, wie die „Fernbedienung“ von morgen aussehen könnte. Die Anwendungen können Text und Video Botschaften von und auf andere Systeme übertragen und personalisiert werden. Der Vorteil von der Puck Technik ist, dass in Zukunft der Benutzer seine eigenen Geräte zum Tisch mitbringen kann und diese einfach auf der Oberfläche ablegt und mit diesen dann ähnlich wie mit den Pucks arbeiten kann. Kein anschließen der Geräte wird nötig sein (Sensoren vorausgesetzt).

TViwes „Real-World“-Experiment: 2005 musste ein Freiwilliger einige Wochen mit dem Tisch leben und seinen gewohnten Tätigkeiten am Tisch nachgehen (z.B. Fotos sortieren, spielen, Gäste empfangen, essen, usw.). Die Fotoanwendungen haben bei diesem Test gezeigt, dass der Tisch sehr intuitiv zu bedienen ist und die Benutzer „gemeinsam“ mit den Fotos gearbeitet haben. Die Akzeptanz und die Interaktivität der Benutzer waren sehr hoch. Beim Spielen stellte sich heraus, dass so ein Puck in der Hand für den Spieler angenehmer ist, als die bisherigen Anwendungen mit Touch Screen. Sie haben etwas in der Hand, mit dem sie sich identifizieren können. Technische Fehler traten in der Positionsbestimmung der Pucks auf, die von zu schnellem Bewegen der Pucks und von schlechtem Kontakt der akustischen Sensoren auf der Oberfläche herrührten. Außerdem ist der in Java implementierte Algorithmus für die Positionsschätzung zu langsam, wenn alle Pucks gleichzeitig bewegt werden. (Quelle: Wissenschaftliches Paper zum TViews Table und Wissenschaftliches Paper zu den "Pucks" auf TViews Table)



 

7

Boženko Poljarić s723346 

3DV Systems und DeepC ™  3DV Systems ist ein Unternehmen, welches marktführend in der 3D‐Video‐Abbildung ist. In Israel  gegründet, entwickelte das Unternehmen eine Technologie, die es Kameras ermöglicht die Tiefe des  Raums wahrzunehmen. Die Gründer Dr. Giora Yahav und Dr. Gabi Iddan sind Wissenschafts‐Veterane  der israelischen Verteidigungsindustrie und Gründeten die Firma 1997 in Yokne'am.  3DV  Systems  entwickelte  einen  Kamera‐Prototypen  namens      ZCam ™. Dieser Prototyp ist in der Lage in Echtzeit die Entfernung  von Objekten in ihrem Sichtfeld zu messen. Dies geschieht in einer  Auflösung  von  1.6  Megapixeln  und  einer,  laut  Angabe  von  3DV  Systems,  Bildfrequenz  von  60  Bildern  pro  Sekunde.    Das  Unternehmen  hat  sich  in  den  letzten  Jahren  auf  die  Senkung  der  Größe  und  Produktionskosten  konzentriert,  so  dass  die  Technologie für den Endbenutzer zu einem akzeptablen Preis zum  Verkauf angeboten werden kann. Damit ist der Einsatz für DeepC ™  unter anderem für Gestenerkennung, Steuerung von Videospielen,  Abb.: Die 4. Generation der ZCam ™, verfügt  über die Technologie die Tiefe des Raums  Virtuelle Realität, etc. geeignet.  wahrzunehmen 

DeepC ™ bzw. ZCam ™ basieren auf dem Prinzip „Time‐Of‐Flight“. Dieses Prinzip wird durch ein  Patent geschützt und bildet die Grundlage für die Messung von Entfernungen. Hierbei werden die  Objekte der Szene mit Infrarotimpulsen beschossen. Die Reflektionen der Objekte geben dann  Aufschluss über deren Entfernung. Jeder Pixel des aufgezeichneten Bildes erhält somit einen  Tiefenwert. Diese Tiefenwerte werden auf ein Schwarz‐Weiß‐Bild übertragen, dessen Graustufen den  Entfernungen entsprechen.  Durch die Bündelung dieser Technik in einem Chipsatz, DeepC ™, ist der  Einbau in einfache Webcams einfach und kostengünstig, was den Einsatz in vielen Gebieten  ermöglicht. Prädestiniertes Einsatzgebiet ist allerdings die Mensch‐Maschine‐Interaktion.         Abb.: Schematische Darstellung der Funktionsweise von Time‐Of‐Flight 

  Erste Anwendungen und Prototypen werden im Bereich Videospiele entwickelt. Durch die  Gestenerkennung und Tiefenwahrnehmung, die durch die Technologie von DeepC ™ ermöglicht wird,  können die Bewegungen der Probanden interpretiert werden. Dies stellt eine nahezu barrierefreie  Schnittstelle dar, die selbst das innovative Produkt von Nintendo, die Wii, in den Schatten stellt.   Ebenso findet der Einsatz der Technik im Bereich Web‐Konferenzen statt. Dabei können  Hintergründe problemlos ausgetauscht werden, in dem alle Pixel ab einer bestimmten Entfernung  durch ein beliebiges Bild ersetzt wird. Neben Webkonferenzen ist der Einsatz auch in der  Automobilindustrie, speziell bei der Sicherheit, denkbar. Durch die gute Objekterkennung der  Technologie können Bewegungen von den Köpfen der Fahrgäste erfasst und mit Airbagsystemen  gekoppelt werden. Die Objekterkennung macht den Einsatz auch für Robotik interessant. 

 

 

 

8

Feridun Temizkan s739196 – Technische Fachhochschule Berlin – Fach ATM

Butterfly Haptics Butterfly Haptics, LLC, ist ein Unternehmen mit Standort in Pittsburgh. Das Kerngeschäft ist die Bereitstellung von Interaktionselementen, die für den Tastsinn und die Sinneswahrnehmung mechanische Reize erzeugen. Das neuste Produkt des Unternehmens ist das Maglev 200 ™ Magnetic Levitation Haptic Interface. Bis zum heutigen Zeitpunkt werden virtuelle Welten lediglich über visuelle Reize wahrgenommen. Die am weitesten verbreitete Form ist der Monitor, Beamer oder auch die Möglichkeit der simplen 3D Darstellung (3D Kino u.ä.). Der Maglev 200 ™ ist von einem Forschungsteam an der Carnegie Mellon University entwickelt worden und wird über Butterfly Haptics vertrieben.

Abbildung 1 Das neuste Produkt, der Butterfly Haptics Maglev 200 ™.

Das Gerät nutzt hierfür eine Magnetschwebetechnik und kommt somit ganz ohne den Zusatz von aufwändiger, komplexer Mechanik aus und wird nicht mehr als Prototyp betrieben. Angestrebt ist ein

kommerzieller Nutzen. Der Aufbau sieht eine „Schüssel“ vor, die einen Elektromagneten verbirgt. Oberhalb schwebt so der für die Steuerung vorgesehene Handgriff („Flotor“), der in drei Dimensionen frei beweglich ist. Möglich sind Ein- und Ausgaben über das Gerät (Feedback). Durch die Magneten kann der Benutzer virtuelle Oberflächen erfühlen. So findet das Gerät z.B. Anwendung in der Texturforschung. Die Genauigkeit des Gerätes liegt hierbei nach Herstellerangaben im Mikrometer-Bereich. Mögliche Anwendungsbereiche sind u.a. Texturforschung, Reibungseffekte, virtuelle Chirurgie, MikroTelemanipulation ferngesteuerter Roboter und mechanisches CAD. Video: http://www.youtube.com/watch?v=AkzoQzGDCB4

Abbildung 2 Schematischer Aufbau der Maglev 200 ™

Ein mögliches und vielversprechendes Konkurrenzprojekt ist der an der Universität von Tokyo entwickelte Ansatz mit Ultraschall. Hierbei wird vollständig auf die Verwendung von Hardware, wie Handschuhe oder andere Mittel verzichtet. Ultraschall erzeugt hierbei eine frei schwebende Projektion. Das System ist nutzbar, da es sich um Druckwellen handelt. Mehrere Signalgeber lassen sich so kombinieren, dass sich diese Wellen überlagern und so ein Druckpunkt in der Luft bildet. Das ganze wird parallel von Kameras verfolgt.

Quellen: www.innovations-report.de www.neuerdings.com www.butterflyhaptics.com www.pressetext.de

9

Recherche Dokument

‚Audiopad’ Kurzbeschreibung: ‚Audiopad’ ist eine Art Steuerungstool, welches das Sampeln von Klängen mit Hilfe von Pucks auf einer Oberfläche (Tischplatte) ermöglicht. Stand:´2003

Historie/Ursprung: In der Vergangenheit gab es einige Projekte, die sich mit so genannten „haptisch bedienbaren Musikkontrollern“ beschäftigt haben. Die eigentliche Inspiration dieses Projektes kommt von Projekten wie Digital Desk und Grasp Draw. Aus dieser Motivation heraus startete dieses Projekt ursprünglich als Experiment, um eine neue Performance-dynamik für elektronische Musik zu erschaffen. DJ´s verstecken sich häufig hinter Ihren Mischpulten und so bekommt das Auditorium keinen Einblick in deren Tätigkeit. Mit dem Audiopad kann nun das Publikum die Wirkung zwischen dem Tun des DJ´s und der Musik nachvollziehen. Aufbau: Das Audiopad besteht v.a. aus folgenden Komponenten. Einem Standart PC (Linux-Basis), auf dem die Anwendung läuft, einem Videoprojektor, um die grafischen Komponenten zu visualisieren. Das eigentliche Kernstück bildet das RF-Tracking System, welches die Position von so genannten LC-Tags über unterschiedlich platzierte Antennen liefert. Funktionsweise: Es gibt verschiede Ansätze dieser Anwendungssteuerung. Im Folgendem ein grober Überblick dieser. Die grafische Oberfläche wird von oben mit Hilfe eines Projektors auf den Tisch projiziert. Die Steuerung durch die Menüs erfolgt dann mit den Pucks, in denen sich LC-Tags verbergen. Hiervon gibt es zwei Sorten, einen Modifierpuck zur Auswahl der einzelnen Menüs durch Knotenpunkte und einem Masterpuck, mit dem z.B. die Lautstärke oder Geschwindigkeit gesteuert werden kann. Die Menüs sind als eine Art Baumstruktur angelegt, welche an den Enden (Blättern) z.B. einen Klang beherbergen. Bewegt man sich nun an diese Hierarchie entlang, kann man einen Klang aktivieren. Somit ist es möglich über verschiedene Einzelklänge eine Sound zu sampeln. Schwierigkeiten ergaben sich, wenn zwei nahe liegende Klänge oder schnelle Klangänderungen erwünscht waren, da nach dem Bestätigen des jeweiligen Klanges das Menü komplett von vorne durchlaufen werden musste. Abhilfe wurde hierzu mittels der „Floating Menus“ geschaffen, um die Zeit für Suche in den und für das Durchlaufen der Menüs zu verkürzen. Diese gestalten sich, in dem die Menüs nach aktivieren offen bleiben und dem Benutzer bei Bewegungen über der Platte folgen. Ausblick: Ein Ausbau der Application für z.B. Mobiltelefone, Videoeditin, Arbeitssimulationen und ähnliche sind gut vorstellbar. Quellen: http://www.jamespatten.com/audiopad/, zugegriffen am 22. Oktober 2008, 22:03 (MEZ) http://www.arte.tv/de/Installations/397616.html, zugegriffen am 22. Oktober 2008, 22:28 (MEZ) http://thefutureofthings.com/pod/1011/audiopad-composer.html, zugegriffen am 24. Oktober 2008, 20:34 (MEZ) ATM – Angewandte Themen Medien

WS 2008/09

Markus Unfried

10

  Allgemein Im weitesten Sinne handelt es sich bei Arduino um ein physikalisches System, dass mit Hilfe von Soft- und Hardware mit der analogen Welt interagieren kann. Der Name Arduino führt auf einen italienischen Markgrafen und späteren König von Italien Arduino von Ivrea (955-1015)zurück. Einige Urväter der Open-Source Plattform, darunter Massimo Banzi und David Cuartielles arbeiten und forschen am Interaction Design Institute von Ivrea. Basierend auf einem Microcotroller-Board und einer integrierten Entwicklungsumgebung mit eigener API stellt die Plattform einen relativ einfachen Einstieg in die Programmierung von interaktiven Umgebungen und Installationen zu Verfügung. Adruino wird verstärkt von Künstlern, Designern und Kunsthochschulen eingesetzt. Die Hardware Als Prozessor wird der Atmel AVR Atmega8/168 eingesetzt. Der verwendete Microcotroller ist mit der Arduino Sprache programmiert, die auf Programmiersprache Wiring basiert. Serielle Schnittstelle ermöglicht die Kommunikation mit dem Computer. Neuere Generation der Boards können zusätzlich einen Bluetooth, USB-Wandler und ZigBee Adapter beinhalten. Die Plattform gibt es als fertig montiertes Board zu kaufen, als gefertigte Platine ohne Bauteile, oder man baut das Board nach. Folgende Fertigboards gibt es: Ardruino- Serial, Ur-Vater mit RS232 Anbindung Arduino NG, mit USB Anbindung Arduino Diecimila, die neuste Generation mit USB Anbindung Ardruino BT, mit Bluetooth Anbindung Ardruino Mini, 24poliger DIL Sockel ähnlich der BasicStamp

Die Software Die Aufnahme der Daten erfolgt über die Sensoren und über die Aktoren werden diese ausgegeben. Die Plattform kann sowohl Standalone laufen, oder über eine Schnittstelle im Zusammenspiel mit Software wie pura Data, Processing, vvvv, Max/MSP, Flash, etc. eingesetzt werden. Die integrierte IDE basiert auf der Programmiersprache Processing, die wiederum stark an Java angelehnt ist. Plattformübergreifend, kann die Software unter mehreren Betriebssystemen eingesetzt werden, (Windows, Mac OS X, Linux). Darüber hinaus kann Arduino für Robotik Projekte eingesetzt werden. Siehe dazu[1] Quellen:    http://www.arduino.cc/  http://www.robotfreak.de/blog/mikrocontroller/arduino‐einfuehrung/16  http://das.blogsport.de/2008/04/08/arduino‐diy‐elektronik‐einfach/  http://processing.org/exhibition/curated_page_new.html  http://de.wikipedia.org/wiki/Arduino‐Plattform  [1] Wiimote controlled firefighting robot, Asuro