Freitag, 25. Mai 2012

Erfolgsfaktoren2


Studie: So punktet #Internetjournalismus. #Qualität & #Exklusivität sind seine #Erfolgsfaktoren im Netz.

Erfolgsfaktoren Tweet


Qualität & Exklusivität sind Erfolgsfaktoren professionellen Internet-Journalismus, nach Studie der LMU München. http://bit.ly/KToL7d

Radio Tweet


Kaum zu glauben – das klassische #Radio ist nach wie vor das meistgenutzte #Medium. Doch das #Web-Radio ist im Kommen. http://goo.gl/avcbt

Ritter Twitter


Sag mir wie du liest, ich sag dir, wer du bist. #Tablet oder #eReader? Multimedianer oder Romaniker? http://goo.gl/iVSFt


Die dicksten Fische auf den ersten Plätzen! Was die #HommingbergerGepardenforelle mit #SEO zu tun hat. http://goo.gl/KV6J6


Fische im #Ranking auf #Google ganz weit vorne. Was die Hommingberger Gepardenforelle mit #SEO zu tun hat. http://goo.gl/KV6J6





Gesucht und gefunden – die Hommingberger Gepardenforelle


Im Jahr 2005 versuchte die Computerzeitschrift c’t nach amerikanischem Vorbild der Funktionsweise von Suchmaschinen auf die Schliche zu kommen. Dafür erfand sie die Hommingberger Gepardenforelle

Die c’t schrieb einen Wettbewerb aus, wer bei der Suche nach dem erfundenen Fisch ganz oben in den Suchtreffern landet. Vor der Aktion gab es unter dem Begriff Hommingberger Gepardenforelle keinen Treffer, weder in Google, noch Yahoo, MSN oder Seekport.  

Direkt nach dem Startschuss am 16. April wurden bereits die ersten Treffer gezählt. Das Ranking am 2. Stichtag (15.12.2005) ergab, dass bspw. Google Seiten bevorzugt, die den Begriff in der Domäne beinhalten (so z.B. www.hommingberger-gepardenforelle.de – eine Seite der c’t). Weiterhin spielte die Verlinkung auf die eigene Seite eine große Rolle. Aus diesem Grund liegt Wikipedia mit seinem Eintrag zu der neuen Fischart ganz weit vorne.
Der Bekanntheitsgrad der Seite, der Inhalt und vor allem die Auffrischung des Inhalts spielen für die Suchmaschinen ebenfalls eine große Rolle. 



Was es bei Google zu beachten gilt


Vereinfacht ausgedrückt ist die Websuche wie ein großes Buch mit einem umfangreichen Index, in dem genau verzeichnet ist, was sich wo befindet. Sobald eine Google-Suche ausgeführt wird, durchsuchen die Google-Programme den Index und bestimmen die relevantesten Suchergebnisse, die angezeigt („zurückgegeben“) werden.
Es gibt drei Hauptprozesse, die ausgeführt werden müssen, um die Suchergebnisse zurückzugeben:

1. Crawling
Crawling bezeichnet den Prozess, durch den der Googlebot neue und aktualisierte Seiten ermittelt, damit sie dem Google-Index hinzugefügt werden.

2. Indizierung
Googlebot verarbeitet jede der gecrawlten Seiten und stellt einen umfangreichen Index aller Wörter zusammen, die auf den Seiten ermittelt wurden, sowie deren Position auf jeder Seite.

3. Bereitstellen der Ergebnisse
Gibt ein Nutzer eine Suchanfrage ein, durchsuchen Computer den Index nach übereinstimmenden Seiten und geben die Ergebnisse zurück, die laut Google am relevantesten für den Nutzer sind. Die Relevanz wird mithilfe von über 200 Faktoren ermittelt. Einer dieser Faktoren ist der PageRank. Dieser entspricht der Relevanz einer Seite. Er wird auf Grundlage von Links, die auf die jeweilige Seite verweisen, gemessen. Demnach erhöht jeder Link auf andere Websites den PageRank der eigenen Website.

Damit eine Website ein vorteilhaftes Ranking in den Suchergebnisseiten erzielt, sollten bestimmte Richtlinien für Webmaster eingehalten werden. Diese seien hier kurz zusammengefasst.

Richtlinien zur Gestaltung und zum Content

-         Website mit klar strukturiertem Aufbau und Textlinks
-         Sitemap mit Links zu den wichtigen Teilen der Website
-    Anzahl der auf einer Seite vorhandenen Links beschränken 

Technische Richtlinien

-         zur Überprüfung der Website einen Textbrowser verwenden
-         sicherstellen, dass der Webserver den HTTP-Header „If-Modified-Since“ unterstützt. Darüber wird mitgeteilt, ob der Website-Inhalt seit dem letzten Crawling geändert wurde
-         Datei „robots.txt“ auf dem Webserver nutzen. Diese Datei teilt Crawlern mit, welche Verzeichnisse durchsucht werden dürfen und welche gesperrt sind. 

Qualitätsrichtlinien

-         Tricks vermeiden, die das Suchmaschinen-Ranking verbessern sollen.
-         nicht an Linktauschprogrammenteilnehmen, die dazu dienen, das Ranking zu verbessern.
-         ausschließlich autorisierte Software verwenden
-         verborgenen Text oder verborgene Links vermeiden
-         keine automatischen Suchanfragen an Google senden
-         keine Seiten mit irrelevanten Suchbegriffen hochladen
-         keine doppelten Seiten, Sub-Domains oder Domains, die denselben Content haben.

Lesen Sie hier den ausführlichen Artikel


Der PageRank-Algorithmus



Er ist das bekannteste Verfahren zur Bewertung und Gewichtung von Webseiten, um ihre Popularität festzulegen. Ziel ist es, eine Ergebnis- reihenfolge bei einer Such- abfrage herzustellen, d.h. Links zu wichtigeren Seiten weiter vorne in der Ergebnisliste anzuzeigen.
Der Algorithmus wurde Ende der 90er Jahre von Sergey Brin (links) und Lawrence Page (rechts) an der Stanford Universität entwickelt. Er diente der Suchmaschine Google des von Brin und Page gegründeten Unternehmens Google Inc. als Grundlage für die Bewertung von Seiten.

Das Grundprinzip lautet: Je mehr Links auf eine Seite verweisen, umso höher ist das Gewicht dieser Seite. Je höher das Gewicht der verweisenden Seiten ist, desto größer ist der Effekt. Der Inhalt einer Seite spielt beim PageRank ebenso wenig eine Rolle wie die URL. Außerdem wird nicht zwischen internen und externen Links unterschieden. Das Ranking (die Platzierung der Webseiten) wird aus der Kombination von mehreren Faktoren ermittelt. Dazu zählen z.B. der Titel und die Texte aber auch der verweisende Linktext. Der PageRank-Algorithmus ist somit nur ein Teil eines Ranking-Algorithmusses.
Der PageRank-Algorithmus soll einen zufällig durch das Netz surfenden Benutzer abbilden und die Wahrscheinlichkeit, mit der dieser auf eine Webseite stößt.

Zu Risiken und Nebenwirkungen lesen Sie diesen Artikel oder fragen Sie Ihren Suchmaschinen-Doktor.

Welche Faktoren beeinflussen das Google-Ranking?


Google arbeitet nach einem bestimmten Algorithmus, nach dem Webseiten sortiert werden – verschiedene Faktoren können dieses Ranking positiv und negativ beeinflussen.

Das Web-Analyseunternehmen Searchmetrics wertet aus: Das Teilen und Verlinken in Sozialen Netzwerken kann eine wichtige Rolle im Ranking von Google spielen.

„Je prominenter sich eine Website auf Twitter, Facebook und Google+ in Szene setzt und je reger Artikel geteilt werden, desto größer ist die Chance, in Googles Gunst zu stehen“ (Zum gesamten Beitrag). Aber: Es muss sich dabei um Qualitätscontent handeln.

Weitere Erkenntnisse aus der Searchmetrics-Auswertung:

1. Seiten, die mit Werbung überhäuft sind und den Leser stören, stoßen auch bei Google auf Ablehnung.

2. Backlinks, also Links von externen Webseiten auf die eigene Seite, bleiben nach wie vor wichtig.

3. Können Webseite und Marke zusammengebracht werden, honoriert das Google – trotz aller Keyword-Bemühungen anderer Seiten – grundsätzlich mehr.

4. Besticht die Art der URL bereits durch eine gute Wahl der Keywords, so ranken auch diese Seite häufiger auf den ersten Seiten bei Google.

5. Überraschend: Webseiten mit vielen Bildern ranken nicht automatisch besser.

6. Kurze Titel und vordere Positionen der Keywords im Text wirken sich dagegen positiv aus.



SEO Ranking Faktoren Deutschland 2012: Infografik
[Bildquelle: blog.searchmetrics.com]


Mit #Twitter, #Facebook und Co. bei #Google punkten. Wie Soziale Netzwerke das Google-Ranking beeinflussen. http://tinyurl.com/6mkrfzw

Tweet Wall


Es ist allgemein bekannt, dass immer mehr Kurznachrichten (Tweets) gelesen werden. Kurz nach Erdbeben oder AKW Unfällen, während politischer Umbrüche wie in den islamischen Länder, gewährleisten Tweets eine erfolgreiche  Kommunikation. Aber auch im Alltag hat sich diese Form bewährt, wie die Internetplattform „Twitter“ belegt. Außerdem hat die Miniaturisierung der internetfähigen Geräte wie Smartphones oder Tablett PCs die Tweetnachrichten immer beliebter gemach.

Bei Tweet Wall geht es also um Kurznachrichten, die wie auf einer Pinnwand untereinander nach Aktualität angezeigt werden. Praktisch ist, dass man dazu nicht extra auf Twitter gehen muss, um die neuesten Infos zu lesen. Einfach ein aktuelles Keywort, Schlagwort oder auch Tag hier Hashtag genannt eingeben und die URL aufrufen.

Eleganter ist, eine Tweet Wall in die eigene Webseite einzubinden und schon können deine Besucher Tweets über ein bestimmtes Thema lesen. Versierte Webmaster können natürlich den ganzen Script, der kostenlos zum Download bereit steht, runterladen.


Hilfe zum Instalieren gibt es natürlich auch im Netz zur genüge.




"Curation is King"


 „Curation is King” – mit diesem Spruch beschrieb Gründer Steve Rosenbaum im Jahr 2010 sein Business Storify. Es gehört zu den Online-Werkzeugen, die im vergangenen Jahr deutlich an Bedeutung gewonnen haben. Mit Storify lassen sich Inhalte aus sozialen Netzwerken wie zum Beispiel You Tube, Twitter und Facebook, neu zusammenstellen und präsentieren – kurz gesagt: es wird kuratiert.
Inhalte werden in Storify streng chronologisch oder nach Themen sortiert dargestellt. Zwischen den Bausteinen aus dem sozialen Netz kann moderierender Text hinzugefügt werden. Dies erleichtert, die Orientierung und den Zusammenhang der einzelnen Bausteine.
Mittels Storify ist es möglich, eine Geschichte mit Youtube Videos, Bildern von FlickR, Tweets oder Facebook zu kombinieren und in einer eigens angelegten Reihenfolge zusammenzusetzen. Man sucht in der rechten Spalte nach den jeweiligen Elementen und zieht sie per „drag-and-drop“ in die linke Spalte, die Timeline.
Ähnlich wie bei Twitter können Beiträge retweeted werden. Das Besondere an Storify ist jedoch, dass angegeben werden kann, aus welchem Umkreis Beiträge aufgerufen werden sollen.
Momentan befindet sich Storify in der Beta-Phase und birgt noch so einige Schwierigkeiten.

Einen weiterführenden Artikel finden Sie hier

Interest in Pinterest


Pinterest ist eine virtuelle Pinnwand, die von der gesamten Netzgemeinde genutzt werden kann. Wer nur Besucher ist, kann hier nur schauen, was andere gepinnt haben. Nutzer haben einen eigenen Account und pinnen munter Bilder, Videos, Rezepte, Kuriositäten, Comics und vieles mehr. Die Kategorien reichen von Architecture  bis Wedding & Events.

Andere Nutzer können Bilder und Videos teilen (repinnen), verlinken, bewerten und kommentieren. Der Traffic zu den Zielseiten, der hierüber entsteht, lag im Februar 2012 fast genauso hoch wie über Google oder Twitter (Quelle: t3n.de). Sind die Bilder witzig, einzigartig oder spannend, ist das Interesse an der Webseite groß.

Die Anmeldung bei Pinterest ist zwar kostenlos, erfolgt aber über eine Einladung der Seite selbst. Direkt oben auf der Seite gibt es einen Button Request an Invite – sobald die Einladung da ist, kann’s losgehen. 

Kritik: Problematisch bei der ganzen Freude ist die Frage nach den Urheberrechten an den gepinnten Bildern. In den USA, dem Heimatland von Pinterest, ist das anders geregelt als bei uns. Mehr Infos dazu gibt es hier.

Multimediale Timeline mit Dipity



Mit dem webbasierten Tool Dipity lassen sich individuell gestaltete Zeitleisten erstellen und veröffentlichen. Ziel ist es, auch komplexe Sachverhalte anschaulich und mutlimedial darzustellen. Die Daten laufen entweder über Dienste wie WordPress, Flickr, Twitter, Youtube oder Last.fm ein oder werden manuell eingegeben.

Kritisiert wird häufig die nicht immer intuitive Handhabe (Stand 2011) und die Werbeeinblendungen beim kostenlosen Account.

Hier einige Beispiel für eine Dipity-Timeline:

Verkaufsschlager Skype
Up in the air - Apollo
Bewegtes Leben: Amy Winehouse




Ich schau Smart-TV


War der Zuschauer noch vor wenigen Jahren an Inhalt, Zeit und Ort der Fernsehsender gebunden, hat sich das Blatt gewendet. Fernsehen unabhängig von Ort und Zeit ist Realität. Dank des Internets als Verbreitungsmedium und der immer höher Speicherkapazität von Servern wird bald das lästige Problem mit den Inhalten wohl auch gelösen.
Durch die Digitalisierung von Inhalten, hybride Gerätetechnik und konvergente Mediennutzung hat sich das Fernsehen verändert und zusammen mit dem explosionsartigen Anstieg audiovisueller Inhalte im Web ist ein neues Sehverhalten entstanden und hat sich etabliert. Umgekehrt ist aus dem Bedürfnis der Zuschauer heraus, bewegte Bilder aus dem Web zeitsouverän auch auf dem Fernsehbildschirm zu nutzen, Hybrid- bzw. Smart-TV entstanden.
Das aus dem Lateinischen stammende Wort „hybrid“ bezeichnet Vermischtes, Gekreuztes, also die Kombination von Teilen verschiedener Herkunft. Hybride Unterhaltungselektronik verbindet also ver­schiedene, bislang getrennte Übertragungswege in einem Gerät. Dadurch können unterschiedliche Medieninhalte aus verschiedenen Quellen auf einem Bildschirm dargestellt werden.
Drei Jahre nach der Markteinführung hat sich Smart-TV etabliert. So schnell hat es noch keine interaktive Technologie geschafft – und das ohne staatliche Hilfen oder sonstige Anschubfinan­zierungen. Businessmodelle für Endgerätehersteller als auch für Inhalteanbieter sind aus den Kinderschuhen heraus. Damit hat Smart-TV den Fernsehmarkt nachhaltig verändert. Die Möglichkeiten der Nutzung bedeutet aber nicht gleich, dass sie auch den größeren Marktanteil erobern können. Deutlich im Aufwind ist HbbTV – nicht nur als Standard, sondern auch, weil alle Programmveranstalter in Deutschland und vielen anderen Ländern darauf setzen. Letztlich kann die konkrete Form von Smart-TV dem Kunden egal sein: Für ihn sind spannende Applikationen und einfach zu erreichende Dienste interessant und nicht die verwendete Technologie.

http://www.media-perspektiven.de/uploads/tx_mppublications/04-2012_Sewczyk_Wenk.pdf

Journalismus im Internet aus Nutzersicht


Quo vadis Journalismus?

Der Journalismus hat seine Stärken erfolgreich auf das Internet übertragen können, muss in Zukunft mehr auf Exklusivität achten. Zwei Ergebnise der aktuelle Onlinebefragung von Christoph Neuberger von der Ludwigs-Maximilians-Universität München, der mit seinem Team die Erwartungen an Journalismus im Internet  untersucht hat. Zu den Ergebnissen der Studie in Media-Perspektiven 1/2012 

Seit einiger Zeit verfolgt die Wissenschaft, dass sich die Grenzen des Journalismus auflösen. Unterhaltung, Werbung und Public Relations gewinnen an Bedeutung. Grund ist der größer werdende Profitzwang durch Verlagshäuser und Medieneigentümer. Im Internet verliert der Journalismus zudem auch die Grenzen zur Laienkommunikation.

Neuberger empfiehlt dem Journalismus, seinen traditionellen Rollen als Gatekeeper und Agendasetter beizubehalten und hochwertige Inhalte zu produzieren. An Bedeutung wird seine Aufgabe als Navigator und Moderator im Internet gewinnen.

Kostenlose Verfügbarkeit und Austauschbarkeit professioneller Angebote führen zu einer schwachen Bindung und zu einer geringen Zahlungsbereitschaft. Der Internetjournalismus hat die Austauschbarkeit der Angebote und die Oberflächlichkeit der Rezeption durch mangelnde Exklusivität und Beschleunigung selbst gefördert.

Eine höhere Qualität und mehr Exklusivität im Verhältnis zu anderen professionellen Angeboten könnten ein wichtiger Erfolgsfaktor im Netz sein.

"Datenberge sind ein Rohstoff"


Mit dem Aufkommen des Online-Journalismus veränderte sich die Rolle des Journalisten. Es gab Diskussionen darüber, ob man Journalisten überhaupt noch braucht. Nun eröffnet sich ein neues Forschungsfeld: der Datenjournalismus.
Gern werden gesellschaftliche Prozesse in Datensätzen dokumentiert – ein Fundus für journalistische Geschichten. Der Datenjournalismus arbeitet bürgernah und vertritt die Interessen seines Publikums. Der User kann sich auf speziellen Websites darüber informieren, was mit seinen Steuergeldern passiert oder welche Spesen Politiker abrechnen.
Der Arzt Jeffrey Brenner aus New Jersey erwirkte mit der Auswertung seiner Patientendaten Präventionsprogramme, indem er belegen konnte, dass seine ärmsten Patienten die schlechteste Klinikversorgung erhielten.
Ein anderes Beispiel zeigt, wie eng Daten- und Persönlichkeitsschutz zusammenhängen. Der Grünen-Abgeordnete Malte Spitz ließ von der Zeit Online-Redaktion seine Handydaten auswerten, die er bei der Telekom eingeklagt hatte. Der User kann Spitz’ Tagesablauf genau verfolgen.
Wichtig für den Erfolg des Datenjournalismus sind veränderte journalistische Ausbildungsinhalte sowie ein annähernd freier Datenzugang. Der Datenjournalismus hat jedoch einen großen Feind: die Zeit. Diese könnte ein limitierender Faktor in seiner Verbreitung sein.

Den ausführlichen Artikel finden Sie hier

Journalist = Kurator?


„Kuratieren“ ist der neue Begriff, der im Online-Journalismus Debatten auslöst – und zwar auf mehrere Art und Weisen.

Ausgegangen vom Wort selbst bedeutet kuratieren pflegen, sich kümmern und meint im Online-Journalismus die professionelle Aufbereitung vorhandener Informationen. „Im Idealfall ist ein Artikel kein fertiges Endprodukt, sondern Ausgangspunkt einer konstruktiven Debatte mit Nutzerbeteiligung.“ - So kann über das kuratierte Material von und mit jedem diskutiert werden.

Doch auch die Journalisten diskutieren – und zwar über den Begriff und seine Bedeutung. Während die eine Seite die Journalisten mehr denn je gefordert sieht, die umherschwirrenden Informationen im Netz zusammenzuführen, sie lesbar und die Quellen transparent zu machen, sprich sich darum zu kümmern, verlangt die andere Seite nach echter Recherche, Reflexion und eigener Formulierung.

Die Wahrheit liegt vermutlich dazwischen – und hängt vom Nutzer ab. Die Informationen sind da und für jeden zugänglich, doch vermutlich kann der Journalist – ob Kurator oder nicht – sie uns am besten vermitteln. Und wir verlassen uns noch immer auf seine Professionalität. 


Partizipativer Journalismus - die Forschung steht noch am Anfang


Beim Partizipativen Journalismus oder auch Bürgerjournalismus stellen die Menschen Medienöffentlichkeit her. Die heutigen gesellschaftspolitischen und technischen Rahmenbedingungen unterstützen nach Ansicht von Sven Engesser, Autor des Beitrags Partizipativer Journalismus, das „gesteigerte Mitteilungsbedürfnis der Bevölkerung“.

Mit der zunehmenden Verbreitung des Internets – weltweit – und den einfachen Zugangsmöglichkeiten entstand eine neue Netzbewegung, die sich innerhalb der zahlreichen digitalen Plattformen bewegt und vor allem äußert.

Der heutige Partizipative Journalismus wird von der Wissenschaft versucht zu analysieren. Fest steht hierbei „die Forschung zum Partizipativen Journalismus [sollte] den Blick über den Tellerrand wagen“ – so Engesser:

1. Wenn Chefredakteure twittern und Blogger politische Kommentare verfassen muss ein zeitgemäßer und zukunftsfähiger Journalismusbegriff her. 

2. Partizipativer Journalismus ist ein dynamischer Begriff, der ständig anhand der sich weiterentwickelten Plattformen und den Motiven der Partizipienten neu definiert werden muss. 

3. Der Partizipative Journalismus sollte in seiner zeitlichen Entwicklung und im internationalen Vergleich analysiert sowie die empirischen Forschungsmethoden weiterentwickelt werden




Donnerstag, 24. Mai 2012

Radiohören ist nach wie vor beliebt


Laut BLM-Web­radiomonitor 2011 gibt es mehr als 3 000 deutsch­sprachige Webradios. Dennoch gehören die klassischen Radios mit Reich­weiten von über 90 Prozent zu den meistgenutzten Medien. Internetbasierte Audioangebote spielen in Deutschland eine ver­gleichsweise geringe Rolle und werden lediglich von 2 Pro­zent der Onliner wöchentlich genutzt.
Neue Übertragungswege stabilisieren das Radio als Alltagsmedium. Im Auto ist es nach wie vor das meist genutzte Medium. Die Bedeutung des klassischen Broadcast-Radios wird durch neue Angebotsformen nur marginal beeinflusst.
Seine Bedeutung gewinnt das Radio auch aus seiner lokalen und regionalen Identifikationsfunktion. Zudem bietet es die Chance, junge Menschen zu erreichen, insofern das Programm zielgruppenspezifisch ist.
Zur Radionutzung gibt es zahlreiche Studien. Daraus wird bspw. ersichtlich, dass sich die Zahl der amerikanischen Onlineradionutzer seit 2001 vervierfacht hat. Aus einer Studie zur gewohnheitsmäßigen Mediennutzung geht hervor, dass die habituelle Zuwendung zum Radio am stärksten ist. Für das Entdecken und Informieren über Musik spielt das Radio bei Jugendlichen nach wie vor eine bedeutende Rolle.

Den vollständigen Artikel finden Sie hier

 


Lesen ist (Geräte-)Typsache


eBooks sind heute in aller Munde und vor allem auf vielen verschiedenen Lesegeräten. Aber wie wird da gelesen?
Das Institut für Buchwissenschaft der Uni Mainz hat die digitalen Leseratten mal genauer unter die Lupe genommen. Und die Wissenschaft hat festgestellt...

...dass sich nicht nur die Lesegeräte unterscheiden, sondern auch die Leser. Die Studie mit 690 Teilnehmern steht zwar nicht repräsentativ für unser Land, aber für das Verhalten der eBook-Leser. 139 lesen ihre Texte auf den sogenannten Tablets und 108 sind bekennende eReader-Nutzer.

Die Tablet-Leser sind dabei die multimedialeren Nutzer. Sie lesen tendenziell eher kurze, sachbezogene Texte, die sie weiterbringen und anregen. Hierfür ist die Verbindung zum WWW wichtig. Der reine eReader bietet diese Möglichkeiten nur eingeschränkt. Deshalb wird er eher zum Ersatz für das gedruckte Buch, und für die Belletristik genutzt. Die Vorteile des komfortablen Transports einer ganzen Bibliothek liegen dabei leicht auf der Hand.

Doch typunabhängig bleiben Wünsche offen: Mehr Auswahl an digitalen Texten und vor allem preiswertere Angebote wünschen sich beide.

Mehr zu den verschiedenen Lesetypen gibt es hier

Stream, Audio und Page - die Rezeptionsformen in der konvergenten Medienwelt

(Analyse auf Basis der ARD/ZDF- Langzeitstudie Massenkommunikation)


Die Studie folgt zur Untersuchung der Mediennutzung dem Ansatz unterschiedlicher Rezeptionsformen: Sehen (Stream), Hören (Audio) und Lesen (Page).

Die Langzeitstudie stellt also nicht mehr nur die Frage: Wie lange nutzen Rezipienten TV, Radio, Print und Internet? Sondern vielmehr: Wie lange sieht, hört oder liest der Nutzer auf welchen Medien? Dazu ist es nötig, dass Internet zwischen medialer und nicht medialer Nutzungsdauer (beinhaltet z.B. Suche, Spiele, Netzwerke) zu unterscheiden.

Audio und Stream: Hier dominiert die klassische Mediennutzung von Radio bzw. Fernsehen im Gegensatz zu anderen Verbreitungs- oder Nutzungsoptionen wie das Internet. Unterschiede lassen sich jedoch in den Altersgruppen erkennen – so nutzen die 14-bis 29-Jährigen häufiger das Internet für Stream, Audio und insbesondere Page.

Insgesamt steigt der Nutzungsanteil von Stream, Audio und Page in den neuen Verbreitungsformen. D.h. die Nutzungszeit verlagert sich zunehmend von den klassischen zu den neuen Medien.

Mittwoch, 16. Mai 2012

Vom Content zur medienspezifischen Präsentation

Textsorten, Darstellungsformen, Content: Jedes Medium verlangt medienspezifische Präsentationsformen. Im Masterstudiengang Crossmedia Publishing an der Leipzig School of Media geht es im Modul Journalistische Content-Aufbereitung (JCA) um das Kennen und Beherrschen der Darstellungsformen - für Text, Audio, Video, Online und Social Media. Im Blog dokumentieren die Studierenden Lehrinhalte und Projekt-Ergebnisse.

Impressum

V.i.S.d.M.: Gabriele Hooffacker, Stiftung Journalistenakademie Dr. Hooffacker GmbH & Co. KG Hausanschrift: Arnulfstraße 111-113, 80634 München, Postanschrift: Postfach 190418, 80604 München, Tel. (089) 167 51 06 Fax: (089) 13 14 06 Mehr Impressum