32. Arbeitskreis E-Learning Avatarsynchronisation mit Kinect

Der gestrige Abend war wieder hoch interessant! Doch das Wissen um das, was möglich ist, machte zugleich deutlich, welche Möglichkeiten und Potentiale in virtuellen Welten, und in Second Life ganz speziell, ungenutzt schlummern.

So berichteten Prof. Dr. Ulrike Lucke und Dr. Ing. Raphael Zender von den Anfängen der Uni Potsdam, die schon 2007 versuchte, die Problematik überfüllter Hörsäle mit der Hilfe von Second Life zu lösen.

Der physische Hörsaal wurde zunächst in SL abgebildet, und der Dozent mit Ton nach Second LIfe übertragen. Dort waren auch die Vortragsfolien zu sehen, d.h. alle Informationen waren im virtuellen Raum vorhanden.

Die Studenten hatten so die Möglichkeit, sich von zu Hause in die Vorlesung in Second Life einzuloggen. Somit blieb aber die räumliche Trennung der Studenten im Hörsaal von jenen zu Hause. Die Bandbreite im Hörsaal lässt natürlich nicht zu, dass die Studenten vor Ort gleichzeitig in SL eingeloggt sind, was auch irgendwie doppelt gemoppelt gewesen wäre.

Deshalb konnten sich die Studenten aus dem Hörsaal mit ihrem Handy über Bluetooth in einen Chat einloggen, der mit dem Chat des virtuellen Hörsaal in Second Life verbunden wurde.

Die Studenten des physischen Hörsaals waren also virtuelle Chatteilnehmer im virtuellen Hörsaal in Secondlife, und konnten am Chat der dortigen Avatare teilnehmen.


Prof. Dr. Ulrike Lucke

Verwirrend? Ja – aber auch gleichermaßen genial gelöst! Ähnlich, wie 2007 das Versenden von SMS Kurznachrichten von und nach SL möglich geworden ist.

Die Bandbreiten wachsen seit dem und so kann man sich weiter auf den Transport größerer Informationsmengen konzentrieren.

In virtuellen Welten wird seit langem das Fehlen der Körpersprache beklagt. Mangelndes Feedback von zuhörenden Avataren, die wie Ölgötzen auf ihren Stühlen sitzen, Vortragende, die stocksteif oder im Away-Modus vor dem Publikum stehen, und schließlichdie Interaktion mit Lernmitteln.
Die Körpersprache ist durchaus eine wertvolle Information, die übertragen werden sollte, und genau das Themengebiet, mit dem sich die beiden Wissenschaftler der Uni Potsdam jetzt beschäftigen.

Möglich wird das durch den günstigen 3D Scanner Kinect, der per Infrarotsensor Positionen von Körpern erfasst.
Der Rest ist “nur noch” eine Rechenaufgabe.


Dr. Ing. Zender

Welche Haltung hat der Vortragende gerade? Entspricht sie einer Geste, die in Second Life verfügbar ist? Dann wird der Trigger geschickt, und die entsprechende Geste in der virtuellen Welt ausgelöst. Zeigt der Vortragende auf einen bestimmten Punkt seiner Präsentation, so wird die Zeigegeste erkannt und getriggert. Der Avatar zeigt auch sofort. Weiterhin wird aus dem Vektor von Unterarm und Hand der Schnittpunkt mit der Projektionsfläche, also der Wand, ermittelt. Die Koordinate des Punktes wird errechnet, und in der virtuellen Welt als roter Punkt auf der dortigen Präsentationswand angezeigt.

Das ermöglicht einem vortragenden Dozenten innerhalb gewisser physikalischer Grenzen einen maximalen Komfort, und dem Zuhörer in der virtuellen Welt die nötigen Informationen.

Wie das ganze dann aussieht, ist in einem kurzen Video dargestellt.

Über twuertz

Tobias arbeitet seit Ende 2009 für avameo bzw. für SLTalk & Partner.

Ihre Meinung ist uns wichtig

*