Schlagwort-Archive: interaktion

[Gugel Kolumne] Interaktives Fernsehen

Langsam aber sicher wachsen das Internet und das Fernsehen zusammen. Lange Zeit haben die Beiden nebeneinander existiert aber die Entwicklungen der letzten Monate legen nahe, dass wir dieses Jahr einen deutlichen Schritt nach vorne machen, wenn es darum geht Internet und Fernsehen zu verzahnen.

Bis vor Kurzem konnte man zwar live Streams und on-demand Aufzeichnungen des Programms im Netz sehen aber wirklich mit dem Programm interagieren konnte man nicht. Mit Twitter wird zunehmend klar, dass genau das jedoch etwas ist, was die Nutzer durchaus begrüßen. Sie wollen während des Programms bestimmte Szenen kommentieren, Ausschnitte weiterleiten und mit dem Programm direkt interagieren.

Twitter als interaktive TV Plattform

Wie so eine tiefe Verknüpfung aussehen kann hat MTV mit den Video Music Awards vorgemacht. Seit sie damit begonnen haben in 2007 mit Twitter bei den VMAs zu experimentieren sind nicht nur die Einschaltquoten wieder gestiegen sondern auch die Integration von Twitter in das Programm. Es begann 2007 als ein MTV Mitarbeiter auf die Idee kam den Musikstars der Awards Handys mit Twitter zu geben und sie von der Veranstaltung berichten zu lassen. Diese Initiative kam so gut an, dass seitdem MTV jedes Jahr das Twitter Engagement ausgeweitet hat.

Letzte Jahr ist MTV sogar noch einen Schritt weiter gegangen. Nicht mehr nur die Stars haben getwittert sondern die Tweets des Publikums wurden über eine Visualisierung live in die Sendung aufgenommen. MTV hatte zudem eine Reporterin, die nur über die Nachrichten auf der Plattform berichtete und die Nutzer zu noch mehr Tweets animiert hat, was mit 2,3 Millionen Kurznachrichten während der Show gut funktioniert hat und auch der Quote dienlich war. Mit 11,4 Millionen Zuschauern waren die VMAs 2010 ein Erfolg.

Twitter ist gerade aufgrund seines konstanten Datenstroms der Schnelligkeit und der guten Schnittstellen dafür prädestiniert das Internet ins Fernsehen zu bringen. Ein TV-Programm kann so in Echtzeit Informationen aus dem Netz zur Verfügung stellen, die dem live Szenario der Sendungen gerecht werden. Dass diese Interaktionen des Publikums sich direkt auf das Programm beziehen sieht man in den Analysen von tweetreach zu den Golden Globes. Zum Einen wurden bis zu 3500 Tweets die Minute gemessen und zum Anderen lassen sich die Tweets direkt mit dem Geschehen auf dem Fernseher verbinden. Interessant an dieser Entwicklung ist, dass Twitter die Zuschauer wieder zum linearen Fernsehkonsum animiert. Denn der Austausch mit anderen Zuschauern ist nur in der live Situation möglich on-demand gibt es keine Möglichkeit sich mit anderen zum Programm in Echtzeit zu unterhalten.

Fehlende Metadaten zum TV

Betrachtet man die Twitternutzung wird klar, dass jedoch noch eine Möglichkeit fehlt das Programm mit dem Internet in Echtzeit zu verbinden. Analysen wie die von tweetreach oder Visualisierungen wie die von MTV sind Lösungen für Einzelfälle aber eine generelle Verknüpfung von Programm und Interaktion ist darüber noch nicht möglich. Damit eine solche Verbindung funktionieren kann müsste sowohl die Zeitleiste der einzelnen Sendungen als auch die Programminformationen im Internet verfügbar sein, so dass Tweets und andere Interaktionselemente direkt damit verknüpft werden können. Insbesondere müsste es eine API für Applikationen geben, die es erlaubt einheitlich auf Programme zu verweisen und normalisierte Daten zu den Programmen erhalten und die es gleichzeitig möglich macht alle zu einem Programm erstellten Interaktionen gebündelt auszugeben.

Genau an dieser Stelle ergibt sich in Deutschland ein Problem. Die Sender verwerten ihre Programminformationen sehr aggressiv und haben ein Leistungsschutzrecht auf diese Daten erwirkt. Darüber hinaus sind im Netz so gut wie keine Metadaten zu den TV Sendungen verfügbar, die über den Sendungstitel, Typ und die Start- und Endzeit hinaus gehen. Bilder, Beschreibungen, eine Timeline und sinnvolle Kategorien sind bei den meisten Programmen Fehlanzeige.

Doch gerade gute TV-Metadaten sind enorm wichtig für die weitere Entwicklung, denn EPG-Daten sind die Geolocation-Daten des TVs. Im Moment sind diese Daten noch unter Verschluss und für Programmierer nicht wirklich zugänglich.

Nur um kurz die Tragweite des Vergleichs zu illustrieren. Jeden Tag werden 600 Milliarden Geolocation Datenpunkte generiert. Wenn die EPG-Daten ähnlich wie die Geolocation-Daten zugänglich, abfragbar und verarbeitbar werden, können Applikationen plötzlich den TV-Konsum auf der EPG-Timeline sekundegenau verfolgen und bestimmen. Dann gibt es nicht mehr nur Checkins in Locations sondern Checkins zu Zeiten und Sendungen, die mit dem gesehenen Programm direkt verbunden sind. Aus dieser Verbindung ergäben sich jede Menge Transaktionen, denn jeder Zappvorgang und wahrscheinlich auch jede Aktion auf dem Fernseher würde eine Abfrage an die EPG-Engine bedeuten. Bei der momentanen TV-Nutzung könnten auch hier einige Milliarden Transaktionen pro Tag herauskommen.

Startups tasten sich heran

Einige Startups haben diese Möglichkeiten erkannt und versuchen einen entsprechenden Dienst aufzusetzen. Mediencheckin-Dienste wie GetGlue, Tunerfish und Miso funktionieren ähnlich wie Gowalla und Foursquare nur für TV-Inhalte. Mit diesen mobilen Applikationen können die Nutzer ihren Freunden mitteilen, was sie gerade sehen. Nur haben diese Applikationen ein Problem: während Gowalla und Foursquare auf eine (GPS-)Ortung der jeweiligen Position des Nutzer zurückgreifen können und daraufhin benachbarte Locations vorschlagen fehlt den Mediencheckin-Apps so eine Abfrage. Sie sind immer darauf angewiesen, dass der Nutzer selbst das momentan laufende Programm auswählt und können ihn dabei nicht unterstützen.

Dieses Problem versucht IntoNow zu lösen. Mit ihrer SoundPrint Technologie, die sie aus auditude mitgenommen haben kann die Applikation die Tonspur einer TV-Sendung mit der Datenbank abgleichen und so den Nutzer direkt auf das richtige Programm einchecken. Mit dieser Methode kann IntoNow nicht nur live Inhalte erkennen sondern auch on-demand Inhalte korrekt zuordnen. Ich bin mir relativ sicher, dass der einen oder andere Mediencheckin Diensten relativ zeitnah die SoundPrint Technologie für seine App lizenzieren wird.

Noch interessanter als IntoNow ist das letzte Update von Yahoo! für seine Connected TV Plattform. Mit diesem Update hat Yahoo! eine Möglichkeit für Entwickler eingeführt mit der sie abfragen können welches Programm oder welcher Inhalt gerade auf dem Fernseher abgespielt wird. Die genauen Möglichkeiten der Schnittstelle und wie Yahoo! die Informationen sammelt und zur Verfügung stellt sind noch sehr vage aber die Implikationen sind klar. Entwickler für Yahoo!s Connected TV Plattform könnten kleine Widgets bauen, die immer automatisch ohne weitere Nutzerinteraktion die momentan gesehene Sendung posten und tracken. Es besteht die Hoffnung, dass andere TV-Plattformen sich ein Beispiel an Yahoo! nehmen und ähnliche Schnittstellen für Entwickler zur Verfügung stellen.

TV-Sender sollte eine eigene API anbieten

Diese Entwicklungen zeigen zwei Dinge. Erstens gibt es endlich das lang erwartete interaktive Fernsehen, allerdings in einer Form, die so nicht erwartet wurde, denn es findet nicht auf dem Fernseher statt sondern auf einem zusätzlichen Screen (Laptop, Handy, Tablet). Zweitens wird der Fernsehkonsum durch genaues Tracking deutlich transparenter.

Von diesen Entwicklungen können die TV-Sender stark profitieren, wenn sie versuchen sie für sich zu nutzen. Durch die Interaktion der Zuschauer untereinander und mit dem Programm wird die live Nutzung und die Bindung an das Programm gestärkt. Genau diese Interaktion gilt es zu unterstützen und zu fördern. Des Weiteren könnten die Sender ihre Programminformationen für Entwickler zur Verfügung stellen und so neue Applikationen und Nutzungsformen ermöglichen an die sie selbst nicht gedacht haben. Ähnlich wie Twitter mit der Firehose API könnten entsprechende Modelle dafür sorgen, dass die Sender auf der einen Seite Innovationen rund um die EPG-Daten fördern und auf der anderen Seite nicht leer ausgehen, wenn eines dieser Modell erfolgreich wird. Letztlich würde die Bereitstellung der Informationen ihnen zudem wertvolle Einblicke in die Nutzung ihres Programms geben.

Die #eok10 im Rückblick

Letzte Woche absolvierten wir die 3. eVideo Online-Konferenz mit der Zielsetzung, verschiedene Interaktionsformate zu erproben, um die Qualität von Echtzeit-Kommunikation in geteilten Online-Räumen zu erfahren. Wenn ich die Woche Revue passieren lasse, fällt mir folgendes Zwischenfazit ein:

  1. Es war anstrengend!
    Die Vorbereitungen zur Realisierung von „nur“ 5 Live-Sessions waren ungeheuer umfassend und bedeuteten für alle Beteiligten einen immensen Mehraufwand. Leider ist dieser Aufwand nach außen kaum sichtbar und kann insofern kaum honoriert werden. Neben einer umfassenden Einführung in die interaktiven Möglichkeiten der Technologie waren v.a. die Erstellung punktgenauer Storyboards und die Vorbereitung geeigneter Materialien extrem zeitaufwändig – zumal Google mit seiner aktuellen Beta-Version und der Reduktion auf fixe Seitengrößen die Arbeit mit mehrspaltigen Aktionsräumen sehr erschwerte. Überhaupt habe ich den Eindruck, mit zunehmender Komplexität der Google-Software wird die kollaborative Arbeit in gemeinsamen Dokumenten immer schwieriger bis hin zu mühsam. Sehr schade …
  2. Es war vielfältig!
    Da ich selbst lediglich als beratende Supervisorin tätig war, konnte sich die Kreativität und Unbekümmertheit der beteiligten Akteure gut entfalten. An Interaktionsformaten haben wir erlebt:

    • Erstellung kollaborativer, abstrahierter Wissenslandkarten, die im Whiteboard in Echtzeit parallel zur Audio-Befragung sich entwickelten.
    • Echtzeit-Interaktion in einem gemeinsamen Cloud-Dokument, dessen zentrale Ansicht per Bildschirmfreigabe geshart wurde.
    • Spielerischer Wissenstransfer über eine visuell unterstützte Choreograhie und selbstgesteuerte Recherchearbeit im virtuellen Raum mit anschließendem Austausch der Erfahrungen.
    • Kollektives Dirigieren einer zentralen Steuerung auf einer Website über Mehrheitsentscheidungen in Umfragen.
    • Kooperative Annäherungen an ein Thema über verschiedene Medien und Integration mehrerer ErzählerInnen – zusammengehalten über eine flexibel genutzte Storytelling-Methode.
  3. Es war schwierig!
    Jede Session war gekennzeichnet durch technische Tücken. Von der Problematik ausgehend, aktive TeilnehmerInnen entsprechend des intendierten Storyboards zu lenken, über die reduzierten Rollenmodelle in Adobe Connect, die es schwierig machten, unterschiedliche TeilnehmerInnen während einer Session flexibel mit Rechten auszustatten, bis hin zu klassischen Fehlern der Bildschirmfreigabe und Audio-/Video-Problemen. Die Technik stellt noch eine große Hürde in solchen Szenarien dar.
  4. Es war inhaltlich interessant!
    • In der Session AgileLearn meets GLD erfuhren die Studierenden zu ihrer Überraschung, wie entscheidend die konkrete Zusammensetzung der Arbeitsgruppe für das spätere Ergebnis ist.
    • Beim virtuellen Magic Roundtable zur Medienkompetenz trat zu Tage, wie wichtig die konkrete Auswahl thematisch sich ergänzender Personen für die Diskussion ist.
    • In der Tanz-Session wurde deutlich, wie wenig sich Adobe Connect für eine wahrhafte Multimedia-Show derzeit eignet und wie man sich dennoch in kurzer Zeit einem fremden Thema emotional nähern kann.
    • Der Live-Pitch demonstrierte in seiner modularen Struktur, wie das Publikum spielerisch den Ablauf steuern und dadurch seinen eigenen Spannungsbogen kreieren kann.
    • Bei der Heimat-Diskussion kam die gesamte Bandbreite naturalistischer Zuschreibungen bis hin zu virtuellen Heimat-Assoziationen zur Sprache, in der sich jedeR irgendwo verorten kann – wenn auch mit persönlichen Schwierigkeiten.

Alles in allem entsprach die Konferenz einem sehr intensiven Erlebnis, zu dessen Fortsetzung in Zukunft größere Budgets erforderlich sind. Die Vorbereitung und Umsetzung einer solch kniffligen technischen Realisierung bedarf eines umfangreichen Stundenpakets und mehrerer Generalproben mit allen Beteiligten. Wenn dies glückt, lassen sich wirklich neue Erfahrungsräume hier eröffnen.

Schauen wir, was die Zukunft bringt.

Interactive Adobe Connect – eine Kurzdemo

Für alle Interessierten, die sich ggf. an unserem Call for Interactions im Rahmen der eVideo Online-Konferenz 2010 beteiligen möchten, habe ich heute eine kurze Session aufgezeichnet, in der ich die interaktiven Features von Adobe Connect darlege. Die gegebenen Möglichkeiten nunmehr kreativ zu mixen für eine interessante Session, in der es weniger um Wissensvermittlung geht, sondern um die Gestaltung eines gemeinsamen Erfahrungsraumes, soll Ziel des Calls sein.

Wir freuen uns über jedwede Beteiligung – auch im Rahmen einer experimentellen Veranstaltung. Wie könnten wir uns der Leitfrage annähern: Was ist das Besondere einer gemeinsamen Zeit?

Was kann geschehen, wenn der Lifestream für einen kurzen Moment eingefroren wird und der Moment zum geteilten Raum wird?

http://nibbler.fhtw-berlin.de/medium/embed/ff80808128d08df901295b5a7f2c001d

Die Aufzeichnung steht in verschiedenen Formaten für alle denkbaren Mediengeräte auf Nibbler zur Verfügung.

eok10 – Call for Interactions

Vom 12. bis 14. Oktober 2010 absolviert das Projekt eVideo seine dritte eVideo-Onlinekonferenz – in diesem Jahr unter dem Motto “Live in the Lifestream”. Wir sind interessiert daran, neue webbasierte Interaktionsformate zu erproben und möchten BerlinerInnen auffordern, sich bei Interesse aktiv mit einzubringen. Ideenskizzen können bis zum 30. Juni 2010 eingereicht werden.

Live in the Lifestream

Längst ist sie Realität, die revolutionäre Erkenntnis, der alltägliche Lebensstrom bilde sich zunehmend im Web ab. Das digitale Leben durchdringt sukzessive alle Lebensbereiche. Und das Web – als zentraler Aggregator der vernetzten Welt – wird zum Motor wie zur Reflexionsfläche für die Aktivitäten und Verbindungen des “realen” Lebens. Nicht als Theorie, sondern als gelebte Praxis: Für digitale EinsteigerInnen in den sozialen (Facebook, MySpace, StudisVZ) oder beruflichen (XING, LinkedIn) Netzwerken. Für die Fortgeschrittenen in Twitter, RSS-Feeds oder sonstigen medialen Umgebungen (Flickr, Youtube, diigo, Wikipedia etc. pp.).

Es wächst sich zur Binsenwahrheit aus: Das digitale Leben IST das reale Leben – und es konfiguriert sich in Echtzeit. Es tickert als Lebensstrom vor sich hin, global vernetzt und aus individueller Perspektive jeweils anders ausschauend, je nach den persönlichen Verbindungen. Eine objektive Wahrnehmung der Welt ist nicht mehr möglich – und insofern schwindet die Macht der menschlichen Filter und Multiplikatoren, die uns die Welt erklären. Vielmehr ist es persönlich erforderlich, selbst Teil des Lebensstromes zu werden, denn nur wer digital vernetzt ist, wird an diesem realen Leben teilhaben und es (demokratisch) mit gestalten können.

Das hat gravierende Auswirkungen auf das analoge Leben und eine Vielzahl bisheriger Gewißheiten werden über Bord geworfen. Um es mit Stowe Boyd zu sagen (übersetzte Folie 31 einer wirklich guten Präsentation zum Flowverständnis, die bereits 3 Jahre alt ist, aber immer noch hochaktuell):

  • Zeit ist der neue geteilte Raum.
  • Produktivität tritt hinter Vernetzung zurück: Die Produktivität des Netzwerkes übertrifft die persönliche Produktivität.
  • Alles Wichtige findet seinen Weg zu Dir viele, viele Male: Mach Dir keine Sorgen, wenn Du eine Information nicht beim ersten Mal entdeckst.
  • Flow ist ein Geisteszustand.
  • Flow ist ein Verb.

Call for Interactions

Gesetzt den Fall, alle Menschen vermögen es, sich im mobilen Web zu bewegen, dort einzutauchen und Flow in ihrem persönlichen Netzwerk zu (er-)leben: Welche Bedeutung kommt dann der geteilten Zeit in einem tatsächlich gemeinsamen Raum zu? Welchen Mehrwert bieten Face-to-face- oder Online-Besprechungen in Echtzeit gegenüber dem synchron tickernden, aber asynchron erlebbaren Lifestream? Was kann geschehen, wenn der Lifestream für einen kurzen Moment eingefroren wird und der Moment zum geteilten Raum wird?

Wir möchten Berliner Künstler/innen, Designer/innen, Web-Spezialist/innen und Medienmenschen auffordern, das Thema “Live in the Lifestream” öffentlich zu reflektieren, in interaktive Ideen zu übersetzen und in Echtzeit zu demonstrieren – in unserer eVideo-Online-Konferenz vom 11. bis 15. Oktober 2010 (jeweils 17-18h und 20-21h). Als Liveraum steht uns Adobe Connect zur Verfügung. Wie kann dieser Raum während einer Zeitstunde bespielt werden, um im interaktiven Austausch das Thema “Live in the Lifestream” zu erfahren? Uns interessiert der experimentelle Blickwinkel von Kreativen, um Live-Erlebnisse erfahrbar zu gestalten und uns zu vernetzen. Nicht als pädagogisches Erlebnis, sondern als kommunikativer Akt! Es geht uns um die kollaborative Reflexion eines brandaktuellen Themas – nicht um konzeptionelle Blaupausen für den Regel-Lehrbetrieb.

Die Möglichkeiten von Adobe Connect demonstrieren wir in einer Demo-Session im Juni – dazu kann man sich unten kostenfrei anmelden. Um Ideenskizzen für die eigentliche Konferenz im Oktober bitten wir bis zum 30.06.2010 – einzureichen über das weiter unten eingehangene Formular. Aus den eingegangenen Skizzen wird das komplette eVideo-Team als Jury die 10 für uns interessantesten Ideen auswählen und diesen bis zum 15.07.2010 die Entscheidung mitteilen. Den 10 Live-Aktiven kann dann eine kleine Aufwandsentschädigung in Höhe von 200 Euro als Honorarvertrag angeboten werden. Alle einstündigen Online-Sessions werden von Fabian Topfstedt und Anja C. Wagner als Moderator/innen begleitet, um die langjährigen Erfahrungen mit Videokonferenzen in Kontinuität einzubringen. Die beiden Personen können ggf. als Spielfiguren in der Umsetzung mit bedacht werden …

System-Check

Neben einer stabilen und guten Internetverbindung mit Datenflatrate (LAN oder DSL – möglichst nicht tangiert von anderen Personen, die dieselbe Leitung nutzen), empfiehlt es sich, den eigenen Rechner einmal kurz bei Adobe automatisch online checken zu lassen. Der Einsatz von Audio und Video ist möglich, sofern die eigenen Systemeinstellungen dies gewährleisten.

Demo-Session

Update 21.06.2010: Aufzeichnung einer Adobe Connect-Session für alle Interessierten, um die interaktiven Möglichkeiten kurz anzureissen.
===
Update 27.05.2010: Die Demo-Session ist auf den 16. Juni 2010 (19h) verschoben.
===
Eine Einführung in Adobe Connect mit einer kurzen Präsentation der interaktiven Möglichkeiten bieten wir am 02.06.2010 16.06.2010 um 19h. Personen, die Adobe Connect bereits kennen, werden hier keine neuen Informatonen erhalten. Diese Session ist für einen Personenkreis gedacht, der bislang wenige Erfahrungen mit Adobe Connect sammeln durfte, sich aber potentiell mit einer Ideenskizze beteiligen möchte. Wenn diese Voraussetzungen gegeben sind, können Sie sich hier sehr gerne eintragen:

Loading…

Ideenskizze

Sie möchten einen aktiven Beitrag leisten im Rahmen unserer 3. eVideo-Online-Konferenz vom 11. bis 15. Oktober 2010? Dann notieren Sie bitte hier Ihre Idee – wir sind sehr gespannt, wie man Adobe Connect kreativ und interaktiv bespielen kann. Bitte fassen Sie sich möglichst kurz in Ihrer Beschreibung.

Loading…

[Gugel-Kolumne] Wandel in der Navigationslogik

Eines der größten Probleme für Plattformbetreiber und Produzenten gleichermaßen ist die Frage, wie es gute Inhalte schaffen gesehen zu werden. Nach fast 5 Jahren YouTube und über 10 Jahren Videoportale ist die Antwort auf diese Frage immer noch nicht abschließend beantwortet, auch wenn sich in dieser Zeit viel verändert hat.

Probleme klassischer Navigationskonzepte

Zu Beginn der Portale standen generische Sortiermethoden und grobe Clusterungen im Fokus der Navigation. Alles was man technisch auslesen konnte wurde in Listen aggregiert: Meistgesehen, Top-Favoriten, Best-Bewertet, am meisten Kommentiert, Neuste, und noch bestimmt zehn weitere Merkmale. Diese Listen wiederum wurden von den Betreibern als Hauptzugang zum Inhalt der Seiten in den Fokus der Navigation gerückt und werden es zum Teil auch heute noch. Der Gedanke dahinter ist einfach: Durch ihr Nutzungsverhalten organisieren die Zuschauer die Inhalte und sorgen dafür, dass die besten Videos immer an der obersten Position stehen. In der Theorie funktioniert dies auch – allerdings nicht in der Praxis, da die durchschaubaren Sortierungen zum Manipulieren einladen. Nicht umsonst existieren jede Menge Anleitungen, wie man diese Listen zu seinen Gunsten nutzen kann.

Auch ist mit diesen Sortierungen noch nicht das Problem gelöst, wie gute Videos überhaupt entdeckt werden, ganz zu schweigen davon, dass sie keine Steuerung der Zuschauerflüsse zulassen, da alles über Algorithmen bestimmt wird. Somit beschränken sich die manuellen Eingriffsmöglichkeiten der Betreiber auf ein Minimum.

kategorien

Um verschiedenen Inhalten eine Chance zu geben werden den generellen Listen segmentierte Kategorie-Listen zur Seite gestellt. Dabei wird die Kategorisierung der Inhalte den Usern überlassen. Dadurch ergeben sich bei der Kategorisierung einige Probleme.

Generell gibt es bei diesem Vorgehen kein einheitliches Verständnis über die Kategorien – im schlimmsten Fall hat jeder Uploader und Zuschauer ein anderes Verständnis von den Kategorien. Hinzu kommt, dass sich die Kategorien von Seite zu Seite unterscheiden, was bedeutet, dass der Besucher auf MyVideo andere Kategorien als auf Clipfish vorfindet. Schließlich überlappen sich die Kategorien meist, so dass Inhalte in mehr als einer Kategorie sein könnten, was es für die Benutzer noch schwieriger macht die richtige Kategorie auszuwählen.

Lösungsansätze

youtube_evolution1

Betrachtet man die Hauptnavigation von YouTube über die letzen Jahre ergeben sich allein daraus bereits einige interessante Antworten auf die oben aufgezeigten Probleme.

  • Navigation nimmt weniger Platz ein. Mit jedem Redesign wurde die Navigation kompakter und kleiner. Zudem wurden die farblichen Akzente kontinuierlich zurückgefahren.
  • Die Suche wurde immer prominenter. Das ist natürlich kein Wunder bei einer Google Tochter, noch dazu wenn man bedenkt, dass YouTube mittlerweile die zweit größte Suchmaschine in den USA ist.
  • Kategorien als prominenter Zugang zu den Videos wurde verworfen. Hier wiederholt sich wohl die Yahoo! (Katalog) vs. Google (Suche) Story in klein. Kategorien sind der Suche auch auf YouTube unterlegen.
  • Community rutscht aus dem Focus. Auch die Community (ehemals Freunde und Gruppen) wird nicht mehr prominent gefeatured. Ein Wink mit dem Zaunpfahl in Richtung Werbetreibende?
  • Videos und Kanäle machen das Rennen. Der eigentliche Inhalte und die Absender des Inhalts haben es geschafft sich der Bereinigung zu entziehen und stehen als primäre Zugänge zu den Inhalten (neben der Suche) im Fokus.

Neben diesen offensichtlichen Änderungen gab es viele kleinere Verbesserungen, die den oben genannten Problemen entgegen wirken.

Abkehr von einfachen Sortieralgorithmen.

Zwar gibt es immer noch Meistgesehen als Sortierung aber die Standardsortierung ist nun beliebteste. Dabei handelt es sich um ein weit komplexeres Maß, das mehrere Kriterien in sich vereint und wohl in Zukunft ähnlich gehütet werden dürfte wie der PageRank-Algorithmus um auch hier Manipulationen zu erschweren. Ziel dieses Maßes ist es die Relevanz der dargestellten Inhalte zu erhöhen. Der User möchte eben gerade nicht das meistgesehene Video sondern das relevanteste Video für seine momentane Nutzungssituation. Kein Wunder also, dass die Suche so gut auf YouTube funktioniert, dort ist die Relevanzsortierung schon am längsten implementiert.

Redaktionelle Filter und Featurings.

Neben der Suche ist es die YouTube-Startseite, die am längstem dem Einfluss der User entzogen ist. YouTube wählt gezielt Inhalte aus, die auf der Startseite gefeatured werden. Dabei geht es nicht allein darum, gute Videos zu featuren sondern und vor allem auch darum Aufmerksamkeit für vermarktbare Videos zu generieren. Neben der Startseite gibt es zudem auf jeder Videoseite eine Fläche über die vermarktbare Videos gefeatured werden.

Ganz nebenbei bedient man sich neuerdings auch externer Filter, als Quelle für gute Videotipps, wie die Box „As Seen On“ zeigt:

ausgelagerte_redaktion

Navigation über Inhalte

Durch die Deakzentuierung der Navigation deutet sich bereits an, dass YouTube den Fokus mehr und mehr auf den eigentlichen Inhalt richtet. YouTube möchte sich dorthin bewegen, wo Hulu bereits ist, zu einem Portal, das die User durch die Inhalte fesselt und herein zieht. Ein Punkt, den Hulu bereits auf der Startseite klar macht:

content_teaser

Der Unterschied der Navigationslogik zwischen dem obigen Konzepten und der Navigation über Inhalt liegt grundlegend darin, dass im Fall der Navigation über Inhalt immer Inhalte im Fokus stehen und zu sehen sind im Gegensatz zu Listen und Suchergebnissen. Navigiert, wird nur dann wenn der im Moment dargebotene Inhalt nicht gefällt oder beendet wurde. Der klassische Fall wie so navigiert werden kann ist die „verwandte Video“-Box (immerhin z.T. für gute 30% der Videoviews auf YouTube zuständig), die man auf so ziemlich allen Portalen findet.

Denkt man das Konzept weiter, sind auch Channels und Playlisten wichtige Elemente zur Navigation, denn dadurch ist kein Inhalt mehr singulär sondern wird immer im Rahmen weiterer Videos dargeboten. In einer Playlist gibt es dann immer ein Video davor und danach und ein Channel hat immer noch ein anderes Video auf Lager, das sich der User auch ansehen sollte.

Fazit

Durch die Navigation durch Content kann der User Themenfelder ganz anders entdecken, als ihm dies durch Listen und Suche möglich wäre. Anders als bei Kategorien verlangt diese Art der Navigation dem User keine einschränkenden Entscheidungen ab (Will ich Comedy oder Politik sehen?) sondern ist immer Inhaltsgetrieben. Natürlich kann eine Inhalte Navigation nur dann Funktionieren, wenn die Inhalte relevant zusammen gestellt werden und der Einstieg passt. Das heißt im einfachsten Fall, dass die Empfehlunsalgorithmen gut funktionieren aber es geht deutlich weiter. Idealerweise werden die Videos so geclustered und aufbereitet dass sich eine intelligente Playliste ergibt, die dem User ein durchdachtes Programm offeriert. Das bedeutet gleichzeitig, dass der Absender der Inhalte an Bedeutung gewinnt und sich als Marke etablieren kann: Entweder weil er gute Videos macht oder weil er gute Videos zusammen stellt.

Interaktives eVideo-Video

Dieses Semester zwang ich mich selbst – über einen kleinen Trick per Bande – mich eingehender mit den (neuen) interaktiven Features von Youtube auseinanderzusetzen. Im Web 2.0-Einführungskurs für die angehenden Kommunikationsdesigner/innen versuchten wir fast ausschließlich über Youtube zu kommunizieren. Das war recht lustig und auch problemlos möglich – welch schönes Gefühl, das eigene Video kommentiert zu wissen 😉

Darüberhinaus: Wenn man sich erst einmal ins Youtube-System tiefer hineinbegibt, stellt man (ich) mit Erstaunen fest, dass sich hinter der blinkenden Fassade fast so etwas wie ein Social Network aufbaut. Man kann Freundschaften schliessen, eigene Repräsentationen kreieren, per direkter Webcam-Aufzeichnung und Videoantworten miteinander kommunizieren – und: man kann seine Videos interaktiv bzw. narrativ anreichern mit diversen Anmerkungen, die sich dann auch wieder Youtube-intern verlinken lassen.

Schicke Feature-Palette, die so aufwändig ausfällt, dass es wirklich einiger Motivation bedurfte, sich darauf einzulassen, um das Potenzial zu testen. Möchte zwar nicht behaupten, die gesamte Palette an Möglichkeiten jetzt überschauen zu können, aber erste sinnvolle Einsatzszenarien kann ich jetzt wenigstens denken. So liesse sich – rein theoretisch – ein komplettes Kursdesign für bestimmte Zielgruppen in Youtube abbilden. Oder auch recht spielerisch die aktuelle Medienkompetenz einüben. Eigene Videos produzieren, abonnieren, kommentieren, bloggen, bewerten etc. pp. – das wäre doch ein recht spaßiger Start in die Web 2.0-Welt, oder?!

Wie auch immer:
Zum Anlass unseres im Oktober startenden neuen eVideo-Kurses zum Thema Marketing 2.0, hier eine interaktive Projektvorstellung des Teams. Schauen Sie rein, wenn Sie sowohl etwas über eVideo als auch über Youtube lernen möchten. Wir wünschen viel Spass!!

Und dann – nicht vergessen – in Youtube antworten, bittschön 😉

Kommunikation 2.0

Nachreichen möchte ich noch einen Fachexpertinnen-Beitrag zum Thema Kommunikation im Social Web, den Nicole Tanja Bauch im Auftrag der eduFutureCoaching GbR produzierte. In ihrer Präsentation vorletzte Woche legte sie das Fundament, wie die durch die neuen Medien provozierten modernen Kommunikationsformen analysiert werden könnten.

http://docs.google.com/EmbedSlideshow?id=dq7qdhz_0jzxgg9hm

Vor allem im Kommunikationsprozess haben sich durch die Web 2.0-bedingten interaktiven Beteiligungsformen einige neue Aspekte der zwischenmenschlichen als auch Mensch-Maschine-Kommunikation herausgebildet. Diesen Formen nachzugehen, wird uns auch in den folgenden Kursen immer wieder beschäftigen.

Interaktives Potenzial von Video

Das Medium Video zieht in weite Lebensbereiche ein. Es wird praktisch überall angewendet und insofern ist es jetzt das Medium. Der Wikieintrag gibt einen Einblick in entwicklungshistorische Hintergründe aus der künstlerischen Produktion und zeigt anhand von Beispielen, wie es für Lerninhalte aufbereitet werden könnte. Ausgewählte Videobeispiele verdeutlichen den Einsatz verschiedener Tools zur Vermittlung teils subjektiver Inhalte. Im künstlerischen Kontext wird Video als visuelle Sprache eingesetzt, von der Aussage her ähnlich wie Textbeiträge behandelt. Der Zuschauer wird nicht als passiver Couchaufsitzer behandelt sondern in die Aktion einbezogen. Zumindest ist das die Zielsetzung. Nicht Fernsehen sondern Nahesehen, um mit Friederike Pezold zu sprechen, einer bekannten Videopionierin.

„Zu meiner großen Freude stellte ich fest, […] daß ich gleichzeitig vor UND hinter der Kamera stehen konnte (was ich beim Film bisher nicht konnte). […] Mit Video, auf einer neuen technologischen Stufe, machte ich das bislang Unmögliche möglich: die Aufhebung der Trennung von Modell und Maler, von Subjekt und Objekt, Bild und Abbild.“     (Zitat von Friederike Pezold)

weitere Zitate

Kollaboration & Interaktion

Letzte Woche besuchte uns Martin Lindner im all-montäglichen Virtual Classroom unseres aktuellen Gaming 2.0-Kurse. Zunächst sammelten wir Lernziele der Kurs-Teilnehmer/innen über 43things. Dann erarbeiteten wir kollaborativ die Möglichkeiten von Etherpad (Inhalte in die Facebook-Gruppe übertragen und aus dem öffentlichen Bereich gelöscht), derweil Martin auditiv zu den Fragen Stellung bezog.

Fazit: Eine gute Tool-Session, die die neuen Kommunikationsformen in Web 2.0-Umgebungen demonstrieren half.

Heute besuchen uns 2 Personen:

  • Matthias Kempf zeigt uns die interaktiven Videomöglichkeiten der ADIVI-Entwicklung des Darmstädter Fraunhofer-Instituts.
  • Sandra Becker berichtet als Medienkünstlerin von den Einsatzpotenzialen interaktiver Videos.

Wir sind gespannt 🙂

Qualifikation mit interaktivem Fernsehen

Mit einiger Verzögerung hier der letzte Beitrag aus der Wintersemester-Reihe des eLearning@FHTW-Kolloquiums:
______________

16. Januar 2007

Qualifikation mit interaktivem Fernsehen
Stefan Schmädeke, Redaktionsleitung Volkswagen TV, TVIS GmbH & Co. KG, Wolfsburg

Folienaufzeichnung mit Audiokommentaren

http://video.google.com/googleplayer.swf?docId=1040998361598563831&hl=de
Lineare Videoaufzeichnung (Vortrag)

http://video.google.com/googleplayer.swf?docId=-8750352328288866647&hl=de
Lineare Videoaufzeichnung (Fragen)