Small Talk mit dem Fernseher

Small Talk mit dem Fernseher


Fernsehen, wie wir es heute kennen, befindet sich in einer Mutationsphase: Internet-Dienste und Videoportale wie YouTube, Netflix, Video on Demand (VOD) oder Catch-Up TV Angebote (Internetmediatheken) veränderten unser Konsumverhalten bezüglich Videos und Fernsehsendungen.

Neueste Statistiken der GfK und SevenOneMedia zeigen weitere Tendenzen: Immer mehr Menschen nutzen während des Fernsehkonsums parallel zusätzliche Geräte. Meist dienen sie zum Austausch mit Freunden in sozialen Netzwerken. Darüber hinaus werden Kommunikationsplattformen wie Facebook oder Twitter und Webdienste auch genutzt, um Zusatzinformationen über das aktuell ausgestrahlte Programm zu erhalten. Die Suche verläuft z. B. über TV-Apps oder Webbrowser. In den meisten Fällen wird ein Tablet als sekundärer Informationskanal (Second Screen) verwendet. Banale Fernbedienungen kommen immer weniger zum Einsatz.

Zudem werden heutige Fernsehgeräte längst nicht mehr nur als reine Videoabspielhardware genutzt. Durch Smart TV verschiedener Hersteller (auch Hybrid TV, Connected TV) können Fernsehsysteme auch als vernetzter Multimedia-Hub mit Internet Anschluss genutzt werden. Eine schnelle Suche in riesigen Datenmengen von der Couch aus, z. B. Fotos oder Videos aus einer privaten Cloud, bringt eine Reihe von neuen Herausforderungen mit sich. „Wie finde ich jetzt schnell das Krokodilfoto vom letzten Urlaub?“: Benutzer werden vor neue Interaktionsfragen gestellt. Zugleich haben Designer und UX-Spezialisten die Aufgabe, bei immer komplexeren und funktionsreicheren Geräten die Interaktionsformen so benutzerfreundlich zu halten, dass jede Funktion kinderleicht in kürzester Zeit aufgerufen werden kann.

Es gibt verschiedene Ansätze diese Problematik anzugehen: Bewährte und bekannte Prinzipien, wie z. B. TV-Apps oder adaptierte Menüs mit dem 10 Feet Design Paradigma 1:1, helfen als Grundlage für die Gestaltung von Fernseh-UIs (Benutzerschnittstellen). Allerdings lassen sich nicht mehr alle Funktionalitäten intuitiv mit der traditionellen vielknöpfigen Fernbedienung aufrufen. Eine Internet-Adresse oder einen Suchbegriff über einen Smart TV einzugeben ist problematisch. Also wurden neue Interaktionslösungen für das Fernsehen gefunden: Das Swoozy-System beispielsweise setzt Gestensteuerung ein (z. B. mit einer LeapMotion oder Kinect), um intuitive und schnell erlernbare Hand- oder Fingerbewegungen vom Benutzer in Kontrollfunktionen (z. B. Programmauswahl oder Lautstärke) umzuwandeln – oder sogar in eine intelligente, ergebnisorientierte Websuche.

Kommentieren

Interaktive Suche durch Swoozy-Gesten mit der LeapMotion

Interaktive Suche durch Swoozy-Gesten mit der LeapMotion

 

Multimodales Fernsehen

Die Entwicklungen im Fernsehbereich gehen eindeutig in Richtung multimodal-gestützter Interaktionsformen. D. h. Benutzereingaben werden per Sprache mit Gesten kombiniert: Der Zuschauer könnte in Richtung des Fernsehers zeigen und gleichzeitig eine Anfrage der Art „Wer ist dieser Schauspieler?“ oder „Bitte im Internet nach Filmen vom gleichen Regisseur suchen!“ stellen, deren Beantwortung die Berücksichtigung des zugehörigen Kontextes erfordert.

Noch interessanter wird es, wenn zukünftig Fernsehsendungen komplett semantisch annotiert werden. Der Zuschauer könnte einfach mit Sprachbefehlen wie „Springe direkt zu der Szene mit dem roten Auto!“ oder „Zeige mir wieder das Tor von Bastian Schweinsteiger!“ gezielt nach Informationen suchen, die gerade erst während der laufenden Sendung entstanden sind.

Längerfristiges Ziel dieser Entwicklungen ist es, dass Home Entertainment Systeme genügend Intelligenz besitzen diese Fragen präzise und schnell zu beantworten. Erreicht werden kann das, wenn diese neuen Systeme intelligente Suchalgorithmen nutzen, die im Semantic Web oder über spezialisierte Webdienste zur Verfügung gestellt werden. Diese Dienste werden dann in der Lage sein, hochwertige und personalisierte Inhalte parallel zum laufenden Programm direkt auf den Bildschirm zu liefern.

 

Nach YouTube jetzt MeinTV?

Die wichtigsten Akteure der Branche werden nach wie vor die Fernsehsender sein. Diese werden mit der Konvergenz von TV, intelligenten Fernsehsystemen und dem Internet die Möglichkeit haben, Zusatzinformationen parallel zum normalen TV-Signal auszustrahlen und somit dem Zuschauer ein komplett neues interaktives Fernseherlebnis anzubieten. Wir können sogar davon ausgehen, dass es in ein paar Jahren keine zeitlich fest vordefinierten TV-Programme mehr geben wird, sondern nur noch personalisierte Programmabläufe. Jeder Zuschauer bekäme so seine eigene individualisierte und je nach persönlichem Interesse inhaltlich und thematisch zusammengestellte Sendung. Er könnte jederzeit die laufende Sendung anhalten, um sich zum laufenden Thema Zusatzinformationen oder alternative Inhalte aus Mediatheken aufrufen. Letztlich könnte man somit quasi von seiner Couch aus seinen eigenen Fernsehsender („MeinTV“) gestalten und diesen über soziale Netzwerke mit Freunden teilen.


Wird es in den kommenden Jahren auch Entwicklungen und spannende Innovationen auf anderen Gebieten im Bereich UX geben?

Eine der wichtigsten Veränderungen der letzten Jahre ist nach wie vor an die Kommerzialisierung des iPhones gebunden. Ausgelöst wurde ein komplettes Umdenken in der Benutzerinteraktion mit einer Software: Touchscreens sind heute überall präsent, mehr und mehr Systeme beruhen gezielt nur noch auf touchscreen-basierten Interaktionen. Davon ist u. a. auch der Automobilbereich betroffen: Beim Tesla wurde beispielsweise für das Dashboard komplett auf physikalische Knöpfe verzichtet. Auch intelligente Smart Objects, wie z. B. mit Internet verbundene Armbanduhren, gehören zu den Innovationen des UX-Bereiches.

Dashboard vom Tesla-S / Bildquelle: www.autoblog.com

Dashboard vom Tesla-S / Bildquelle: www.autoblog.com

 

Wie Benutzer mit einem intelligenten System interagieren, hat sich also innerhalb weniger Jahre völlig verändert. Touch-Interaktionen (Single- und Multi-Touch) sind so natürlich geworden wie vor Jahrzehnten das Klicken mit der Maus.

Aktuell regt sich eine solche systematische Veränderung auch im Bereich Gestensteuerung. Noch vor einigen Jahren bewunderten wir dies im Science-Fiction-Thriller „Minority Report“. Heute lässt sich solch eine Gestensteuerungs-Hardware für ein paar Euro erwerben. Mit einfachen Wischgesten können wir damit die Kontrolle über ein Fernsehsystem oder eine Bildergalerie übernehmen.

Benutzerschnittstellen-Designer stoßen dabei auf die Frage, wie bereits vertraute Interaktionsmuster (z. B. Klick-Metapher) oder auch neue Interaktionen durch den Einsatz von Gesten realisiert werden können. Für den Benutzer sind zwar Design-Guidelines für Gesten-basierte Systeme verfügbar, für noch unbekannte Interaktionsformen fehlen ihm aber zunächst jegliche Anhaltspunkte. So ist beim Touchscreen ganz klar die Klick-Metapher präsent. Aber welche Kriterien werden benutzt, um eine Geste als „intuitiv“ oder „einfach“ zu bezeichnen? Zwar gibt es physische Kriterien (wie Muskelspannungen oder Schnelligkeit der Gestenausführung), aber – anders als beim Mausklick – können Gesten von einzelnen Personen ganz unterschiedlich ausgeführt werden. Oder ist es letztlich die Kombination aus Gestik und Bedienoberfläche, die bestimmt, wie intuitiv ein System per Geste zu bedienen ist?

Fragestellungen wie diese zeigen, wie wichtig es ist, die Benutzer in UX Design-Prozesse einzubinden (z. B. durch Evaluationen). Darüber hinaus müssen Software-Systeme so gestaltet werden, dass sie erkennen, welche Funktion der Benutzer mit seiner Eingabe auslösen möchte, um daraufhin adaptiv und intelligent Entscheidungen zu treffen.


Internet der Dinge: neue Chancen für UX?

Neue Hardwareentwicklungen wie z. B. flexible Displays oder die Miniaturisierung von Embedded Plattformen haben neue Türen im Bereich Wearable Computing und für neue intelligente und kommunizierende Produkte und Objekte (Smart Objects) geöffnet.

Diese Tendenz ließ sich bereits Anfang dieses Jahres verspüren: mit der Präsentation des Produktes "mother", twitternder Baby-Overalls oder sogar einer intelligenten Zahnbürste, bei denen Benutzeraktivitäten getrackt werden können.

Diese Tendenz ließ sich bereits Anfang dieses Jahres verspüren: mit der Präsentation des Produktes "mother", twitternder Baby-Overalls oder sogar einer intelligenten Zahnbürste, bei denen Benutzeraktivitäten getrackt werden können.

 

Ähnlich wie beim Fernsehen können Benutzer das Tablet oder Smartphone als visuelles Ausgabemedium für diese Produkte nutzen. Somit können sie nicht nur haptisch mit diesen interagieren, sondern auch Zusatzinformationen über interaktive Datenvisualisierungen einsehen.

 

Milky: eine anthropomorphe intelligente Milchtüte / Foto: Matthieu Deru

Milky: eine anthropomorphe intelligente Milchtüte / Foto: Matthieu Deru

 

Ein weiteres Beispiel ist Milky, eine anthropomorphe Milchtüte, die über ein integriertes Display den Zustand der Milch in Form eines Gesichts anzeigt und sogar Apps einblendet, wenn die Milchtüte leer ist. Durch Produkte wie Milky kann eine ganz neue Bindung zum Benutzer aufgebaut werden. Dabei handelt es sich um eine Product-to-Human-Interaktion: Das Produkt oder intelligente Objekt triggert den Benutzer, indem es ihn proaktiv und automatisch über Veränderungen in seiner Umgebung informiert. Eine Verschmelzung zwischen Objekten, Software und Produktdesign findet statt, um nicht nur eine neue Funktionalität anzubieten, sondern auch eine emotionale Benutzerbindung zu schaffen. Es wird mit Sicherheit das neue „Next Big Thing“ nach Social Web und Semantic Web: Software wird haptischer, intelligenter und bekommt die technische Möglichkeit, mit anderen Gegenständen ihrer Umgebung zu kommunizieren.

Fraglich ist, wie Benutzer damit umgehen und welche neuen Bedienkonzepte und innovativen UX-Designs erforderlich sein werden, damit die alltägliche Benutzung solcher Systeme weiterhin intuitiv und kinderleicht bleibt.

Der Autor

Matthieu Deru arbeitet am Forschungszentrum für Künstliche Intelligenz in Saarbrücken. Dort hat er sich auf den Forschungsbereich „Intelligente Benutzerschnittstellen“ spezialisiert. 2013 gewann Deru mit seinem interaktiven semantischen Fernsehsystem Swoozy, das deutlich über die Fähigkeiten aktueller SmartTVs hinaus geht, den CeBIT Innovation Award. Mit einer simplen Handgeste kann der Zuschauer mit Swoozy Elemente, wie den Moderator, ein Auto oder Tier, aus dem laufenden Video "herausziehen" und durch eine weitere Handgeste von Swoozy interpretieren lassen.

 

Zu anderen FORUM UX-Beiträgen

 

Eine Initiative von:

Logo des Bundesministeriums für Bildung und ForschungLogo der CeBIT