Samstag, 14. Dezember 2013

Die 5-Shot-Regel

Jeder kann heute technisch einfach und günstig Videos produzieren. Aber wie fängt man Publikum ein? Zalbertus und Rosenblum stellen vor, wie man mit fünf Einstellungen ein wirkungsvolles Video erstellt.

Umfrage / Vox Pop

Wir kennen alle die Umfragen in Fernsehsendungen, in denen uns die Stimme des Volkes zu allen nur erdenklichen Themen präsentiert wird. Die Do´s and Dont´s für eine ansprechende Umfrage sind hier zusammengestellt.

Der Reporterbericht

Der Reporterbericht ist ein anderhalb bis zwei minütiger Nachrichtenfilm, welcher Erläuterungen, Stellungnahmen von Beteiligten und auch Einschätzungen des Autors enthält. Die Herstellung des Berichts liegt in der Verantwortung des jeweiligen Reporters oder Korrespondenten, weshalb er als Korrespondenten- oder Reporterbericht bezeichnet wird.

Fernsehjournalistischen Darstellungsformen - Fragearten, Fragetechnik


Das Ziel der angewandten Fragetechnik ist es, ein Interview oder einen Dialog zu beginnen bzw. zu vertiefen und das Gegenüber zu lenken. Durch die geschickte Auswahl der Frageformen bestimmt der Interviewer den Grad der Einflussnahme.

Tipps und Tricks rund um ein Interview

Dieser Eintrag zeigt stichpunktartig die wichtigsten Tipps und Tricks zur Vorbereitung und Führung eines Interviews.

NiF - Was ist das und wie geht das?

Eine NiF  - Nachricht im Film – ist ein kurzer Nachrichtenbeitrages. Dieser wird auch als Spot, Clip oder Fließ-Maz bezeichnet und ist meist zwischen 15 und 30 Sekunden lang.

Die Bildsprache

Was soll die Aussage eines Films sein? Welche Bilder brauche ich dafür? Das sollte sich der Produzent vor jedem Dreh genau überlegen - und dabei den Zuschauer nicht vergessen, der den Film womöglich anders interpretiert.

Gebaute Reportage - im Spotlicht eines Scheinwerfers

Viele Journalisten betrachten die Reportage im Gegensatz zum Bericht als Kür ihres Alltags. Was unterscheidet die Reportage vom Bericht? Was zeichnet sie aus?

Samstag, 16. November 2013

Unverdächtiges zum Abschluss

Die weltweite Speicherung von Internet-Verkehrsdaten durch Geheimdienste ist seit Juni eines der wichtigsten Themen im Jahr 2013. Durch Edward Snowden, dem ehem. NSA-Mitarbeit und Glenn Greenwald, dem Guardian-Jounalisten wurde eine der umfassendsten Geheimdienstoperationen publik, die in bisher ungekannter Dimension alle Menschen betrifft. Übrigens: Seit du diesen Teaser liest, hat die NSA weitere 10 TB Daten gesammelt.

About:Kate - ein transmediales Experiment



About:Kate ist eine cross-/transmediale Fernsehserie, die den Bewusstseinsstrom seiner weiblichen Hauptfigur Kate in den Mittelpunkt stellt.

Heroes – die innovativste TV-Erfahrung im Web

Die TV-Serie Heroes gilt als Pionierin auf dem Gebiet des transmedialen Storytellings. Das inhaltliche und wirtschaftliche Erfolgsrezept ist ein unvorstellbares crossmediales Konstrukt. Wir stellen die Mechanismen vor, die der Heroes-Kosmos anwendet.

Wer rettet Dina Foxx - Crossmediales TV-Projekt des ZDF

In der Apotheke, beim Onlinekauf, auf dem Flughafen, beim Müllwegbringen - ständig geben wir mehr oder weniger bewusst unzählige Informationen von uns preis. Was passiert mit diesen Daten? Wer weiß was über unser Leben? Und wollen wir das eigentlich? In einem interaktiven, crossmedialen TV-Experiment versuchte das ZDF durch die Verschmelzung zwischen Fiktion und Realität die Zuschauer für das Thema Datenschutz zu sensibilisieren.

Das Beispiel einer crossmediale Fernsehproduktion für Kinder und Jugendliche


dasbloghaus.tv  >DIE BLOGGERGRUPPE VOM BODENSEE<

In der KiKA-Serie „dasbloghaus.tv“ dreht sich alles um die Clique von Sofie aus Lindau am Bodensee.
Zusammen hängen sie so oft es geht in einem kleinen Badehaus am Ufer des Sees ab – dem so genannten „bloghaus“.
Sophie und ihre Clique erstellen und bearbeiten in 2 Staffeln und 39 Episoden mit je 25 Minuten einen Online-Blog.

Die Welt von Alpha 0.7

Die Welt von Alpha 0.7


Der SWR hat ein umfangreiches transmediales Projekt mit einem starken Focus auf die Onlinewelt geschaffen.  Ist dies ein richtungsweisendes TV-Format?


Trimediale Agenten

Miteinander, statt nebeneinander: Darum geht es beim trimedialen Publizieren. Ein Miteinander der unterschiedlichen Medien, aber auch ein Miteinander der Kollegen. Was das genau bedeutet, haben Volontäre des Bayerischen Rundfunks (BR) bei einem zweitägigen Seminar gelernt.

Wer macht was im Social Web?

Die neuesten Studien des ARD & ZDF zum Nutzerverhalten und der Entwicklung des viel thematisierten Social Web, zugeschnitten auf den Crossmedia Studiengang. Lesen Sie hier die relevanten Facts.

Multioptionales Fernsehen


Multioptionales Fernsehen

Verliert der Fernseher seinen Platz im Wohnzimmer? Wird in naher Zukunft nur noch über PC, Laptop, Tablet oder Smartphone wann und wo man will ferngesehen?


Smart-TVs und HbbTV weiter auf dem Vormarsch


Smart-TV und HbbTV sind die Zukunft des Fernsehens. Aber was ist das überhaupt? Und wie sehr sind sie wirklich schon im "Mainstream" angekommen?

Viele Onliner, wenig Offliner

Die aktuelle ARD/ZDF-Onlinestudie 2013 zeigt: Das Internet nimmt immer mehr Platz in unserem Leben ein. Auch bei der Generation 50plus. Lesen Sie hier weitere Ergebnisse der Studie. 

Always on: Smartphone, Tablet & Co.

Non-stop online, ständig verfügbar, immer auf dem neuesten Stand - laut der aktuellen ARD/ZDF-Onlinestudie 2013 steigt der Internetkonsum der Deutschen drastisch. Doch wie oft und wie lange sind wir tatsächlich online? Welche Geräte vernetzen uns wann und wo? Die aktuellen Ergebnisse auf einen Blick.

Mit dem Smartphone auf der Couch

Die mobile Internetnutzung steigt stark an. 2012 gingen dreimal so viele Nutzer mobil ins Web wie noch vor zwölf Jahren. Die kleinen Endgeräte bieten Bewegungsfreiheit, auch in den eigenen vier Wänden. Werden sie in Zukunft den PC ersetzen?

Mobiler Medienalltag im Jahr 2013

Welche mobilen Endgeräte nutzen die Deutschen in ihrem Alltag? Was sind häufige Anwendungsszenarien? Das untersucht die Studie der Zeitschrift Media Perspektiven und zeigt dabei die Bedeutung der crossmedialen Nutzung auf.

Reichweite von Online-Angeboten messen

Wer nutzt meine Website? Welche Artikel werden gelesen? Vor diesen und anderen Fragen stehen immer wieder Betreiber von Online-Angeboten. Aufschluss geben hier Tools zur Reichweiten- und Nutzer-Analyse. Wir erklären das technische Verfahren am Beispiel des IVW.

Donnerstag, 24. Oktober 2013

Online-typisch: DER TEASER


Der Begriff Teaser kommt aus dem Englischen – to tease – und heißt übersetzt jemanden necken oder reizen.


Die Ursprünge des Teasers kommen aus dem Marketing und der Werbung, bei denen die Endkunden durch Werbekampagnen „angereizt“ wurden sich mit dem entsprechenden Produkt auseinanderzusetzen.
  
Beispiel:
Es wurde ein personalisierter Brief per Post verschickt, auf dem stand: HERZLICHEN GLÜCKWUNSCH SIE HABEN GEWONNEN. Ein Anreiz, den Brief zu öffnen und zu schauen, was man gewonnen hat. Die Ernüchterung erfolgte meist sofort :o)

Mittlerweile ist jedoch der Teaser in diversen Formaten vertreten.

Im Rundfunk ist der Teaser die Ankündigung eines Beitrags oder einer Sendung unmittelbar  vor der Ausstrahlung. Im Gegensatz zum Teaser gibt der Trailer nur einen allgemeinen Hinweis auf die Sendung oder verweist auf den Sendeplatz.  

Im Onlinebereich steht der Teaser für die Vorschau und Zusammenfassung eines entsprechenden Produkts. Das Produkt kann dabei ein Beitrag oder ein zu bewerbendes Kleidungsstück sein. Hier ist zu bedenken, dass der Teaser überzeugend sein muss, da ansonsten keine weitere Kundenaktivität folgt.











 Quelle: http://www.leipzigschoolofmedia.de/


Dies ist im Printbereich nicht so sehr problematisch, da die Grundintention des Kunden das Medium sowieso zum Lesen ausgewählt hat. Im Printbereich ist ein Teaser eine Zusammenfassung bzw. ein Kurztext zu einem Artikel irgendwo in der Zeitung, der traditionell am Rand platziert wird. Dieser hat einen Hinweis zu dem entsprechenden Artikel markiert durch die Seitenzahl. 

Grundsätzlich ist das Hauptmerkmal des Teasers in allen Formaten das unmittelbare räumliche und zeitliche Auftreten beziehungsweise Erscheinen von etwas Angekündigtem, mit dem Ziel den Kunden einen reizvollen Vorgeschmack auf das entsprechende Produkt zu geben.

Weitere Infos und Details können auch unter Der Online-Teaser – Eine eigenständige Textsorte? abgerufen werden.


Ted Nelson: Xanadu

Ted Nelson und der Begriff Hypertext

Der Erfinder und Namensgeber des Hypertextes, Ted Nelson, sprach bereits 1963 von einer Verbindung zwischen einzelnen Bausteinen eines Dokumentes. Damit grenzte er seine Idee von dem Vorgängermodell: Brushes Memes-Konzept ab, welches die Verbindung verschiedener Dokumente als ganzes vorsah ab. Nelson erhoffte sich so eine Befreiung von der durch Papier künstlich vorgegebenen Linearität. In der Überarbeitung seines Buches ”Dream Machine: New freedom through computer screens. A minority report (1974)” definierte er Hypertext als ”(..) generic term for any text, which can not be printed.”

Der Xanadu-Entwurf

Seinen Entwurf einer vernetzten Sammlung von Dokumenten taufte Ted Nelson: Xanadu. Dieser in den 60er Jahren entstandene Idee, handelt von einem elektronischen Ort an dem alle Dokumente, das gesamte Wissen der Menschheit, so wie jede Äußerung gespeichert und mit einander vernetzt werden sollen, die so genannten Docuverse, dem Universum der Dokumente.  Nelson dachte bereits an ein Host-Rechner-System, als die Großrechner noch Kleiderschränke füllten. Weiters sollten in diesem Docuverse alle Daten mittels eines URI-Systems abrufbar gemacht werden. Auch ältere Versionen der Daten, sollten nach deren Überarbeitung weiterhin abrufbar bleiben. Auch der Unterschied zwischen privaten und öffentlichen Themen interessierte Nelson, so beschloss er dies in Xanadu von einander zu trennen, wobei die Vernetzung der privaten Daten mit Öffentlichen möglich ist. Ein großes Charakteristikum von Xanadu und schließlich auch Teil seines Scheiterns war die visuell stark aufwändige Navigation. Wie ein Astronaut durch das All schwebt, so sollte sich der User frei durch die Hypertexte bewegen können. Eine windows-kompartieble Demo-Version gibt es. 

Nelsons einsamer Kampf gegen das Web

Die Geschichte von Xanadu endete wenig erfolgreich. Aufgrund des angespannten Verhältnisses zwischen Xanadu und dem World Wide Web, gibt es nur zurückhaltende Informationen zu diesem Thema. Heute kann Xanadu nicht mehr direkt mit dem Web verglichen werden, da es sich ausschließlich auf seriöse, wissenschaftliche Beiträge fokussierte. Die Partizipation am World Wide Web ließ es zum Massenmedium werden, während Xanadu einer Webenzyklopädie ähnlich ist. 

Zur Quelle, so wie der zu detaillierteren Informationen gelangen Sie hier.

Tim Berners Lee und das World Wide Web

Der Artikel von Mika Gustavson skizziert, wie Tim Berners Lee aufgrund der chaotischen Situation der Informationsorganisation am CERN im Jahr 1989 die Grundzüge des World Wide Web konzipierte.

Das Konzept war durch vier wesentliche Grundzüge charakterisiert:

  • Prinzip der Offenheit
  • Erweiterbarkeit
  • Standardisierung
  • Kostenfreie Nutzung


Im Anschluss an das Konzept entwickelte er die offen zugängliche, softwäremäßig unabhängige Auszeichnungssprache HTML, die den Hauptgrund für den Erfolg des World Wide Web darstellt.

Es waren jedoch andere Pioniere des World Wide Web, die mit Hilfe von Berners Lees Entwicklung Millionen verdienten, zum Bespiel die Gründer des später Börsennotierten Unternehmens Netscape, Marc Andreessen und James H. Clark.

Auf diesen Umstand angesprochen, entwertet er auf seiner Webseite:

“Wäre die Technik proprietär und unter meiner Kontrolle gewesen, wäre sie wahrscheinlich nicht so erfolgreich geworden. Die Entscheidung, das Web zum offenen System zu machen, war notwendig, um es universell zu machen.”

Den kompletten Artikel von Mika Gustavson gibt es unter http://webtalk-blog.de/tim-berners-lee

Von Ramellis Bücherrad zum eBook

Von Ramellis Bücherrad zum eBook


Bei dem Bücherrad von Agostino Ramelli aus Italien handelt es sich um eine Erfindung, die eine Reaktion auf die Erfindung des Buchdrucks im 15. Jh. darstellt. Das Bücherrad aus dem Jahre 1588 sollte es dem Leser ermöglichen, zwischen verschiedenen Büchern und Textbausteinen hin und her wechseln zu können. Das Funktionsprinzip ist ein rotierendes Rad mit befestigten Büchern. Durch dieses Verfolgen von Querverweisen gilt diese Erfindung als Vorläufer des modernen Hypertextes. In einem von Ramelli verfassten Band wurden ca. 195 genaue Konstruktionsanleitung dokumentiert. Dieses Werk gilt als Klassiker der Ingenieurskunst des 16. Jahrhunderts.
In den 60er Jahren wurde erstmals ein Betriebssystem entwickelt, dass das elektronische Erfassen und Drucken von Text ermöglichte. In den 80er Jahren erst waren Programme in der Lage Texte zu lesen und zu durchsuchen. Die Entwicklung des PDF-Formats mit dem dazugehörigen Adobe Reader folgte. Zu diesem Zeitpunkt kam das Thema eBook auf, die ersten E-Reader folgten 1998 und Lesegeräte im Inkjet-Verfahren erschienen 2003. Die Darstellung von Texten orientierte sich jedoch noch stark an einer starren Buchseite. Die Entwicklung des iPads von Apple brachte den E-Book in einen starken Wandel...

Was ist ein Hypertext?


Hypertexte ermöglichen einen flexiblen, nicht-linearen Zugang zu Informationen. Damit der Nutzer nicht die Orientierung verliert, sollten einige gestalterische Aspekte beachtet werden.

Hypertext wird definiert als eine Menge von modularen Informationseinheiten, die durch Links miteinander verknüpft sind. Es können externe und interne Links unterschieden werden: Externe Links verweisen auf andere Webseiten, interne Links sind innerhalb einer Seite gesetzt. Gestalterisch kann diese Unterscheidung zum Beispiel kenntlich gemacht werden, indem sich externe Links automatisch in einem weiteren Browserfenster öffnen.

Die weitere Frage, die sich bei der Gestaltung eines Hypertextes stellt, ist die der Größe der Hypertextelemente, der Granularität. Diese sollte abhängig vom Inhalt sein: handelt es sich um einen Glossareintrag können mehr Links eingebaut werden als bei einem kompletten Reportagetext.

Die Modularität von Hypertext hat ebenso Auswirkung auf die Gestaltung einer Webseite: da der/die NutzerIn selektiven und flexiblen Zugang zu den Inhalten hat, sollte jedes Hypertextmodul in sich stimmig sein.


Weitere Informationen findet ihr hier.

Hypermedia-Texte planen und konzipieren

Hypermedia-Texte planen und konzipieren

Quelle: http://www.hypermedia-texte.de/hyper1/planen.html, Beißwenger/Storrer (Dortmund 2002)


Der Text Hypermedia-Texte planen und konzipieren beschäftigt sich mit den Strategien zur Planung von Webseiten. Er beschäftigt sich mit diesen Aspekten (hier in veränderter Reihenfolge):
  1. Entwicklungskreislauf einer Website
  2. Welche Strukturierungstypen gibt es?
  3. Wie zergliedert man einen Text sinnvoll? 

1. Entwicklungskreislauf einer Website

In einem Punkt unterscheidet sich der Ablauf einer Webseitenerstellung grundlegend vom klassischen Ablauf einer Printproduktion: Eine Website ist nach ihrer Veröffentlichung nie "fertig".
Häufig wird dieser Aspekt bei der Planung nicht berücksichtigt. Jakob Nielsen beschreibt dies in den "Top Ten Mistakes of Web Management". Es müssen also schon bei der Planung die spätere Pflege und der spätere Ausbau mitgedacht werden.

Der Entwicklungskreislauf einer Website gliedert sich in 6 Phasen, die immer wieder durchlaufen werden:
Zyklischer Entwurfsprozess nach Fleming (1998, S.76)


















2. Wie zergliedert man einen Text sinnvoll?

Um Texte zu strukturieren, muss man ihre Sinneinheiten erfassen. Mögliche Zerlegungskriterien sind:
  • funktional --> Orientierung an der eingesetzten Technik (Forum, Wiki, ...)
  • perspektivisch --> Orientierung am Blickwinkel
  • thematisch --> inhaltliche Orientierung 

3. Welche Strukturierungstypen gibt es?

Ziel der hier beschriebenen Planung ist es, eine Strukturierung für die zu planende Website zu erlangen. Dazu kann man sich dreier Typen bedienen:
  • Hierarchisches Grundgerüst = die klassische Sitemap in zwei Ausprägungen:
    • breite Hierarchie --> mehr Auswahl, aber weniger Klicks 
    • tiefe Hierarchie --> mehr Klicks, aber schnellere Entscheidung
  • Pfade = Wie bewegt sich der Nutzer durch die Seite?
  • Netz = klassische Querverweise
Eine solche Strukturierung zu erlangen, ist Ziel der Planung.



Einführung in die Suchmaschinenoptimierung (SEO)

Der Suchmaschinen-Doktor gibt auf seiner Website eine kurze Einführung in die Suchmaschinenoptimierung (SEO).  Hierbei wird heraus gestellt, dass Suchmaschinen, wie bspw. Google, weder Java, Flash oder Grafiken, sondern lediglich Texte auslesen können. Allerdings kann die Semantik der Texte aber (noch) nicht erkannt werden. Es zählt einzig wo, wie und wie häufig Begriffe verwendet werden.

Was Sind On-Site- und Off-Site-Faktoren? 

Maßgeblich für eine gute Positionierung in einer Suchmaschine (=Ranking) sind On-Site- sowie Off-Site-Faktoren.

On-Site-Faktoren

  • Titel (=Meta-Title)
  •  Beschreibung (=Meta-Description) => Text unter dem Link in der Suchmaschine
  • Keywordverwendung => Anzahl, Häufigkeit, Form von (möglichen) Suchbegriffen
  • Alles aus dem HTML-Code (URL, Alter der Seite, Dateigröße, etc.)

Off-Site-Faktoren


  • Anzahl der eingehenden Links (!!!müssen natürlich gewachsen sein!!!)
  • Text von Links zu der eigenen Seite (eingehender Ankertext)
  • Weitere Werte, die sich aus der Struktur berechnen (PageRank) => Bewertung der Linkpopularität einer Seite; hierbei wird ein zufällig durch das Internet surfender Nutzer nachgebildet - je höher der PageRank ist, desto höher ist die Wahrscheinlichkeit auf die Website zu gelangen. Hier kann man den PageRank einer Website bestimmen.

Wie gelangt man nun zu einem guten Ranking?

Um bei Google oder anderen Suchmaschinen möglichst weit oben gelistet zu werden, ist ein ausgewogenes Verhältnis von On-Site- und Off-Site-Maßnahmen maßgeblich. Hierbei muss man allerdings beachten, dass jede Suchmaschine einen eigenen Algorithmus verwendet. Für alle Suchmaschinen gilt jedoch, dass die Inhalte (Texte) und die Verlinkungen von und zu anderen Websites am wichtigsten sind. Hierzu müssen zu Beginn einer SEO die wichtigsten Keywords identifiziert werden, die dann in die Texte und Meta-Daten einer Website eingebaut werden.

Wie nehmen Nutzer Online-Seiten wahr? Eyetracking-Studien des Poynter-Instituts


Unter Eye-Tracking wird die wissenschaftliche Methode verstanden, womit die Analyse von Blickverläufen und die Fixierung des Blickes auf bestimmte Punkte untersucht werden kann.

Das Poyntner Institute setzt Eye-Tracking Analysen bereits seit dem Jahr 1990 ein und hat seit dem (Stand 2004) über 582 Leser von Zeitungen und Journalistischen Webseiten auf Ihre Lesegewohnheiten hin untersucht.

Zur ersten Studie „Eyes on the news“ 1990 wurden 90 Leser aus St. Petersburg, Minneapolis und Orange County an fünf aufeinanderfolgenden Tagen beobachtet. 

Die wichtigsten Erkenntnisse im Jahr 1990 waren:
  • Erst werden Bilder und Illustrationen wahrgenommen, danach die Headlines, Teaser und Bildüberschriften. Zum Schluss erst der Text.
  • Bilder werden im allgemeinen sehr stark in den Fokus gerückt, weshalb auch Teaser mit Bild sehr gut wahrgenommen werden.
  • Leser „lieben“ Farbe und erwarten durch farbliche Akzente eine größere Informationsdichte.

1999 führte das Poynter Institute in Zusammenarbeit mit der Stanford University erstmals eine Eyetrackingstudie zum Leseverhalten der Nutzer im Internet durch. Dafür wurden insgesamt 67 Teilnehmer ausgewählt, die mindestens 3 mal wöchentlich Onlinenachrichten lesen. Diese durften unter Einsatz eines Eyetrackingverfahrens ihre Lieblingsnachrichtenseiten durchblättern. Somit sollte herausgefunden werden welche Art von Artikeln besonders oft gelesen werden, wie viel gelesen wird und wie wichtig dabei Überschriften, Grafiken und Fotos sind.

Die wichtigsten Ergebnisse der Studie 1999 im Überblick:
  • Die Nutzer lesen zuerst die Textbausteine (Überschriften, Teaser, Bildunterschriften,…)
  • Fotos sind attraktiver als Grafiken
  • Es wird zwar meist recht oberflächlich, dafür aber weit gefächert gelesen
Im Jahre 2003, kam in Zusammenarbeit mit der Universität von North Carolina eine tiefergehende Studie zum Onlineleseverhalten von Nutzern zustande. Dafür wurden 46 Teilnehmer aus San Francisco beim Durchstöbern von Nachrichtenseiten und anderen multimedialen Inhalten beobachtet.

Dabei konnten folgende Ergebnisse festgehalten werden:
  • Das Auge der Leser hält zuerst im oberen linken Bereich der Website inne (meist Logoregion). Erst dann wird der Rest von links nach rechts gescannt.
  • Der Navigation kommt eine große Bedeutung zu. Auch hier verweilt das Auge lang.
  • Dominante große Überschriften werden öfter gesehen als kleinere Überschriften.
  • Unterstrichene Überschriften oder andere Unterbrechungslinien sind eher hinderlich, da sie zum Nicht-Weiterlesen führen.
  • Der Text ist wichtiger als das Bildmaterial.
  • Je weiter unten ein Artikel ausgeführt wird, desto weniger wird er gelesen.
  • Kurze Zusammenfassungen unter Überschriften werden sehr oft gelesen.
  • Werbung sollte idealerweise im oberen oder linken Abschnitt platziert werden, bzw. in der Nähe von redaktionellen Inhalten.

Weitere Informationen zu aktuellen Studien zum Leseverhalten auf Tablets findet ihr hier.

Was sind headmaps und was bringen sie?

Was sind headmaps und was bringen sie?

Mit Hilfe von headmaps  kann das Verhalten von websitebesuchern durch Temparaturunterschiede visualisiert werden.
Anwendungen erfolgen durch Visualisierungen von Klicks, Mausbewegungen oder Blickdauer mit dem Ziel, den Nutzen von websites zu optimieren. Je mehr Aktivitäten in einem Bereich vorgenommen werden, desto "heißer" wird dieser. Dabei sind blaue Bereiche die am wenigsten über grün, gelb, rot bis hin zu weißen Bereichen mit den höchsten Aktivitäten.
Headmaps werden eingesetzt, um Benutzerverhalten nicht nur zu raten oder zu vermuten, sondern tatsächlich zu testen. http://blogs.lib.ucdavis.edu/hsl/tag/heatmaps/
Zu dessen Nutzung gibt es einige Regeln:
-genug Traffics - 20 Besucher einer website am Tag sind nicht wirklich relevant, deshalb über    längeren Zeitraum testen, um belastbare Datenmenge zu erhalten
-dynamisch vs. statische seiten - nur bei statischen Seiten sinnvoll, da Inhaltsänderungen zu verzerrten Ergebnissen führt
-Splittest - Banner A eine Woche/ Banner B andere Woche - vergleichen
-einzelne Änderungen - Auswertung des headmap Optimierungspotentials mit Änderung nur eines Elementes und dann schauen, was sich ändert
-strukturiert vorgehen - Zeitraum x warten - ändern- Zeitraum x warten etc.

Headmaps selbst sagen nichts aus, erst durch die Interpretation der Daten, die durchaus sinnvoll sein sollten, gelangt man zu Optimierungsergebnissen.
Durch die verbesserte Erzeugung von Aufmerksamkeit kann die Verweildauer auf websites erhöht , die Absprungrate gesenkt, die Zugriffe auf einer bestimmten Seite und die Wahrnehmung von z.B. Abo-Buttons erhöht werden, was wiederum die  Steigerung der Einnahmen unterstützt.

Dem System der headmaps sind Grenzen gesetzt, weiterführende Hinweise ergeben sich durch headmaps services und tools.

Hypertext-/Hypermedia: Eine Kurzdefinition

Hypertext- bzw. Hypermedia-Dokumente bestehen aus mehreren Informationseinheiten, die auch als Knoten bezeichnet werden. Von Hypertext wird gesprochen, wenn diese Knoten ausschließlich aus Textknoten bestehen. Der Begriff Hypermedia-Dokument wird verwendet, wenn neben Textknoten auch Knoten anderer Medien, bspw. mit Bildern, Grafiken, Video- oder Audiofiles genutzt werden. Die Beziehungen zwischen den einzelnen Knoten werden durch „Kanten“ dargestellt. Schematisch werden Hypertext-/Hypermedia-Dokumente als Hypergraph dargestellt, in dem die Knoten und ihre Beziehungen untereinander visualisiert werden. Zur Darstellung von Hypertext-/Hypermedia-Dokumente werden sog. Navigationswerkzeuge benötigt, in denen die visuelle Ansicht der Dokumente erzeugt wird.

Quelle: Dietrich Boels 1998, http://www-is.informatik.uni-oldenburg.de/~dibo/teaching/mm/buch/node52.html

Hypertext-Struktur

Durch die Vernetzung mittels Hyperlinks oder Ankern von einzelnen Knoten können komplexe, virtuelle Gewebe von Verweisen und Verknüpfungen, die sich entweder linear, hierarchisch (Baumstruktur) oder rhizomatisch (quervernetzt) organisieren.

Das scannende Auge

Wie rezipieren Leser Texte im Web? Wenn es um diese Frage geht, fällt häufig der Name Jakob Nielsen. Er gilt als Guru auf diesem Forschungsgebiet und führte viele Studien dazu durch. Zu seinen wichtigsten Ergebnissen gehören folgende Aspekte:
  • Leser lesen im Web langsamer
  • Sie lesen nicht Wort für Wort, sondern scannen den Text anhand von Schlüsselbegriffen
  • Sie mögen keine langen Texte zum Scrollen und brauchen stattdessen eine gute Navigation
Deshalb sollten Webtexte generell kurz und prägnant sein. Zudem sollten sie in einzelne Informationsbausteine aufgeteilt werden. Dabei stehen die wichtigsten Informationen am Anfang, für weitere Details kann sich jeder Nutzer nach seinen Wünschen durchklicken.
Außerdem sollte das scannende Auge unterstützt werden, indem beispielswiese Zwischentitel eingefügt werden oder Schlagworte fett markiert werden.

Quelle: hypermedia-texte.de

Texten oder hypertexten?

Muss man für Online-Medien anders schreiben als für Printmedien? Mit dieser Frage beschäftigt sich der folgende Artikel:

http://www.hypermedia-texte.de/grund2/texten.html

Zusammengefasst kann man zwischen zwei Sorten von Texten unterscheiden, die online veröffentlicht werden können:

  1. dem Hypertext, modular aufgebauten Texteinheiten (oder auch Medieneinheiten), die untereinander verlinkt sind
  2. dem E-Text, linear aufgebautem Text, der nicht für den modularen Konsum ausgelegt ist

Je nach thematischer Ausrichtung des Textes und der Intention sollte man bei der Veröffentlichung zwischen den beiden Textsorten wählen. Hypertexte eignen sich für breit angelegte Themen von allgemeinem Interesse, die sich leicht in einzelne Module zerlegen lassen. E-Texte eignen sich für vertiefendes Lesen und haben den Vorteil, dass sie sich gut ausdrucken lassen. Ein weiterer Vorteil von E-Texten ist die kostengünstige und schnelle Aufbereitung, während Hypertexte mehr Aufwand in der Vorbereitung erfordern. Optimal ist eine Verknüpfung der beiden Textsorten, die es dem Nutzer erlaubt, nach der selektiven Erarbeitung am Computer noch vertiefend in ein Thema hineinzulesen.