Web vs. ZDF

Als „Wetten, dass“ heute in den letzten Zügen lag, hatte Peter Turi im Spiegel vom kommenden Montag (2. Oktober) eine Preziose entdeckt. Die lapidare Meldung gibt einen kleinen Vorgeschmack darauf, was den alten Medien noch so alles blühen wird. (Und die Turi-Kinder sitzen nebenbei am Rechner, so wie ich heute auch.)

Politik online und Netzpolitik

Foto von Oliver Baumgart

Es sind mehr Fragen und Optimismus, die die „Politik Online“-Session
unter Leitung von Falk Lüke (Berlin) beim ersten Barcamp Deutschlands
in Berlin prägen.

Kann man online Politikverdrossenheit entgegenwirken? Wo zieht man –
vor allem am rechten Rand – die Grenze? Ist auch ein rechtes Blog
Information oder Demagogie? Sind Wikis innerhalb von Parteien oder
über Parteigrenzen hinweg eine Möglichkeit ausgewogene und
„bullshit-freie“ Information an Bürgerinnen und Bürger zu bekommen?
Immerhin konnte man sich auf einen Ansatz einigen: Wünschenswert wäre
eine „Matrix der Meinungen“, in der die Ansätze der Parteien zu
verschiedenen Fragestellungen in Differenz zu anderen Parteien und
eventuell in Differenz zu früheren Statements der Partei dargestellt
werden.

Markus Beckedahl hat unangenehme Fragen gleich zu
Anfang: Wie erklärt sich die Differenz zwischen Interesse an
netzpolitischen Fragestellungen und dem Mangel an Aktion und dem
Unwissen der Entscheider in der Politik andererseits? Also kurz: Warum
engagieren sich so wenige? Warum nutzen die Techniker nicht ihre
Fähigkeiten, um politische Infrastrukturen zu bauen?
Während viel zu wenige ihre Blogs als politische Plattformen nutzen,
arbeiten andere an einem Konsumnetz, das dem Fernsehen immer ähnlicher
wird.

Ein Erfolg war zu erzeichnen beim Thema Softwarepatente: Geeks und
Nerds vernetzen sich über Mailinglisten und beschäftigten sich mit
Politik-Hacking, indem sich eine große Gruppe nach Brüssel begab und
das direkte Gespräch mit Politikern suchte – und sie waren
erfolgreich. In der breiten Bevölkerung aber bleiben IT-Themen unter
der Decke, solange nicht wirklich große Skandale passieren. Was wäre zu
tun, um solche Probleme einer breiteren Gruppe zu kommunizieren? Als
Hürde erweist sich dabei natürlich die Techniksprache der Fachleute –
hier wäre bei einer Übersetzung ins Allgemeinverständliche anzusetzen.

Eine der nächsten Herausforderungen sei das neue Urheberrecht, das
sich auf ein im Wesentlichen „kaputtes“ Digital Rights Management (DRM)
stütze. Aber auch bei den Geeks stoßen manche immer wieder
durchgekaute Themen nicht selten auf taube Ohren.

Als erfolgreich erweisen sich Kampagnen, die sich auf konkrete Handlungen
kaprizieren: Briefversand, Demonstrationen auf der Straße und
Ähnliches. Gleichzeitig könnte sich die ‚Netzpolitik‘ Hilfe zum
Beispiel bei den Mediengestaltern holen, Wettbewerbe veranstalten. Bei
großen Agenturen stößt man da wohl eher auf taube Ohren, ist die
Einschätzung von Patrick Breitenbach.

Was fehlt ist neben einer bürgernahen Sprache auch der Super-GAU, es
fehlt ein Tschernobyl-Äquivalent, es fehlt die großäugige Robbe.
Solche Bilder – natürlich ohne die dazu passende Katastrophe – gilt es für die IT zu schaffen und in globale Kampagnen einzubinden, darauf konnte sich die Gruppe einigen. Und schaut
neidisch in die USA, wo sich eine breite Koalition für die
Netzneutralität zusammen.

Foto: Oliver Baumgart

Blogsuchmaschinen

Christopher Laux‘
Motivation zur Arbeit an einer eigenen Suchmaschine für Blogs stammt
aus der Unzufriedenheit mit der Qualität von Blogsuchmaschinen: Die
Ergebnisse von Suchen innerhalb von Blogs waren über Dienste wie
Technorati oder die Blogsuche von Google oder Yahoo nicht zu
erreichen. Beim Barcamp Berlin diskutierte er seine Erfahrungen bei
den ersten Schritten, eine eigene Blogsuchmaschine zu bauen.

Die Maschine funktioniert so: Während ein „Spider“ Blogs findet, hat ein
„Visitor“ die Aufgabe, aktuelle Einträge zu finden. Diese beiden
Elemente sind bereits implementiert. Noch zu bauen sind Suchalgorithmen
und ein Webinterface, das Nutzern die eigentliche Suche erlaubt.

Im Spiderkonzept werden Bäume entsprechend bewertet, beispielsweise
als „Spam-Zweig“ (kappt man den, so werden auch viele andere
Spamquellen „gekappt“) oder als „Such-Zweig auf Italienisch“.
Sofern die Blogsuchmaschine monolingual (also beispielsweise englisch)
spidern soll, müssen auch fremdsprachige Blogs ausgeblendet werden.
Die Blogs in der Wunschsprache lassen sich recht einfach über einen
hohen Anteil an Wörtern aus einem passenden Lexikon ermitteln.

Vermeiden muss man auch, dass der Spider „im Kreis läuft“, denn unter
Millionen Blogs im Index solche Kreise zu ermitteln ist von der
Rechenkapazität her problematisch.
Generell wird auch versucht zu ermitteln, welche Teile des Blogs
welche Infos (Archivlink, interne Links, Blogroll) enthalten, und im
Prinzip können aus diesen Strukturen auch semantische
Schlussfolgerungen gezogen werden.
Blogs selbst werden erkannt anhand ihrer typischen URL-Struktur:
Anhand von 30 Regeln werden bisher 80% der Blogs erkannt. RSS als
Indikator zu nehmen hat sich nicht bewährt.

Im Betrieb zieht der Spider 1 GB/Stunde, es empfiehlt sich also ein
Server mit unlimitiertem Traffic. Ein Bloom-Filter
erübrigt es, alle bisher
erfassten URLs im Speicher zu halten, und die Datenfiles werden linear
strukturiert.

Der Visitor ist ähnlich strukturiert wie der Spider. Hier fallen
allerdings 30 GB/h an – wahrscheinlich weil die dafür vorgesehene
Maschine schneller ist. Statt 30 Connections wie beim Spider werden hier
parallel 50 Verbindungen gefahren.

Ein Problem war, dass nach einer halben Million Blogs dem System nach
einiger Zeit die Blogs ausgingen: Die Datenbank umfasst lediglich eine
halbe Million Blogs und … geht davon aus, dass das die halbe Million
‚besten‘ Blogs sind.
Aus den ‚Wer linkt auf wen“-Statistiken lässt sich ableiten, dass die
Long-Tail-Relation in der Tat umgekehrt exponentiell zueinander
verhält: Es gibt weniger und weniger Blogs mit immer mehr und mehr
Links, die auf sie zeigen. Für die Statistiker unter den Lesenden: Bei
einer doppelt logarithmischen Darstellung ergibt sich eine angenäherte
Gerade.

Timo Derstappen hat auf der
Basis von Technorati-Daten ein ähnliches System als Alert-System für PR-Abteilungen gebaut,
deren eigentliches Ziel die Auslösung eines PR-Alarms war, wenn
bestimmte Begriffe ‚peaken‘. Begriffe wurden in von Hand erstellten
Topic-Maps semantisch miteinander verknüpft und können so benutzt
werden, um Texte inhaltlich zu bewerten. Die Hardware-Anforderungen
sind relativ hoch und schwer im Rahmen eines Hobbyprojekts zu
realisieren. Invalides HTML oder RSS und Spamblogs waren auch für
dieses System – das aktuell nirgends installiert ist – ein Problem.

Buchtipp: „Mining the Web – Discovering Knowledge from Hypertext Data“
von S. Chakrabarti

Social Microformats, distribuierte Social Networks und der baldige Tod von OpenBC/XING, StudiVZ & Co.

Pixelsebi erklärt beim Barcamp-Wochenende
Berlin
, was die Probleme dabei
sind, dass Plattformen wie Myspace, Studio, Facebook oder OpenBC
unsere Netzwerk und Kontaktdaten in zentralen, nach außen nicht
offenen Systemen speichern:
Bei einem Wechsel im Leben, wenn man beispielsweise nicht mehr Student
ist, müsste man ‚migrieren‘ und verliert sein Netzwerk oder muss es
mühsam im neuen Service abbilden. Ähnlich verhält es sich, wenn ein
Dienst eingestellt wird oder jemandem verkauft wird, dem die Nutzer
nicht vertrauen.

Mikroformate zur Abbildung von Netzwerken und Kontaktdaten,
beispielsweise FOAF hCard und XFN, würden Möglichkeiten bieten, diese Informationen
in universeller Art abzubilden und sie an einem Speicherort eigener
Wahl miteinander zu vernetzen. Auch die Kontrolle darüber, wer welche
Daten einsehen kann, wäre wesentlich besser gegeben als aktuell.

Die Plattformbetreiber sind natürlich an einem solchen dezentralen
System nicht interessiert. Andererseits würde eine solche
Dezentralisierung die Annahme solcher Social Networks stark
beschleunigen und wäre im Interesse der Nutzer, die so wesentlich
einfacher ihre Kontaktdaten (Mail, mehrere IM-Systeme, mehrere
Netzwerke, Blogleserschaften etc.) miteinander abgleichen könnten.

Auch aus Sicht von Unternehmen wäre so etwas spannend, denn auch sie
wollen ihre sozialen Netzwerke überblicken können, sei es nach außen,
zu Lieferanten und Kunden, sei es – was Sebastian nicht ansprach –
nach innen ins Unternehmen selbst. Gerade für markenzentrierte
Netzwerke wäre eine solche plattformübergreifende Zugangsweise sehr
wertvoll.

„Dapper“ beispielsweise hat eine Technologie
entwickelt, um nach Eingabe einer URL das Profil, das dazu passt, in
Bausteine zu zerlegen, und man kann aus diesen Bausteinen wieder ein
„Profilkonstrukt“ rekonstruieren. Problematisch ist solches ‚Screen
Scraping‘ natürlich aus rechtlicher Sicht, aber an sich zeigt es den
Bedarf, der für einen solchen Dienst gibt, der Profildaten vernetzt.

Die Diskussion bewegt sich zwischen Fragen von Copyright und
Urheberrecht an den Daten in solchen Plattformen und der
Frage, ob dezentrale Systeme vertrauenswürdiger sind als
zentralisierte Angebote unter Firmenkontrolle. Was „verrate“ ich über
meine Freunde, was die eventuell gar nicht veröffentlicht haben
wollen? Wie genau wird authentisiert, ob jemand, der behauptet, ich zu
sein, auch die Wahrheit sagt?

Dienste wie ‚ClaimID‘ bieten schon
Vernetzungsdienste für Logins bei verschiedenen Netzwerken und
übernehmen so zentrale Vernetzungsaufgaben.

Bei People Aggregator hingegen kann man
– allerdings mit einem schwer benutzbaren Interface – alle
Schnittstellen zu verschiedenen Identitäten bei verschiedenen Diensten
zur Verfügung stellen.

Zu diesen neuen übergreifenden Identifikationsansätzen soll es eine
separate Session geben.

Barcamp: Eine Un-Konferenz in Berlin

Barcamp

2005 rief Tim O’Reilly 250 seiner Freunde zum Foo-Camp (Friends of
O’Reilly). Die Reaktion darauf war die Einrichtung des ersten Barcamp,
einer Nicht-Konferenz, die sich ‚on the spot‘ selbst organisiert. Bei
der spontan Themen und „Slots“ organisiert werden. Die erste solche
Konferenz
findet an diesem
Wochenende in Deutschland in Berlin statt. Gastgeber ist Pixelpark
nahe dem Warschauer Platz, aber organisiert wird das Camp von einer
unabhängigen Kern-Orgatruppe und den Teilnehmenden selbst. JedeR ist
aufgefordert einen eigenen Vortrag oder eine Gesprächsrunde anzubieten
und wie nicht anders zu erwarten kreisen viele der Themen um Technik
und Konzepte von Social Software, Social Media und Onlineapplikationen
(auch „Web 2.0“ genannt – aber wer kann das noch hören?).

Session 1: Zukunft der klassischen Medien

Roland Riethmüller von der NWZ in Oldenburg
skizziert,
wie seine Zeitung sich mit seiner Unterstützung auf die gewandelte
Situation eingestellt hat. Blogs, Portale und Homepages machen ihr
Konkurrenz im Textbereich, Radio bekommt Konkurrenz durch Downloads,
Podcasts und Streaming, TV muss sich mit Vodcasts, IP-TV und
Videoportalen um das Zeitbudget der Zuhörer kloppen.

Doch auch die Zeitung ist im Netz selbst präsent: auf dem Web, via SMS
auf Handys, mit M-Papers oder gar mit eigenen Blogs.

Die Mediennutzer aber lassen sich weniger in Zielgruppen einteilen
(der bei ALDI kaufende Porschefahrer) und Medien werden – auf Kosten
der Aufmerksamkeit – parallel genutzt.
Der One-to-Many-Ansatz wird durch eine
Many-to-Many-Dialogkommunikation ersetzt. Das Kommumnikationsmonopol
ist gefallen.

Die Zeitung kann als Qualitätsprodukt jedoch Marktaneile
zurückgewinnen und ihre starke Marke ins Spiel bringen: Zeitungen
gelten als vertrauenswürdiger als die oft pseudonym publizierten
Blogs. Über eine Aufspreizung ihrer Kanäle Richtung Mobilcontent,
Audio und Video kann die Zeitung mehr Menschen erreichen.

Die NWZ beispielsweise setzte eine Jugendcommunity mit Partyfotos auf.
Jugendliche können sich selbst auf den Fotos mit Mitgliedsnamen
‚taggen‘ und sich so vernetzen. Fotos werden getaggt.

Peter Schink berichtet über den Aufbau der Netzeitung
und deren „Readers Edition“
– einem Versuch, ‚user generated
content‘ für diese Newsplattform nutzbar zu machen.

User Generated Content treibt das Konzept des Leserfeedbacks und der
Leserbindung auf eine neue Ebene. Während Wikinews nicht funktioniere,
erklärt Schink.

Verlage haben ihre Vorteile bei Reichweite, Kompetenz der Journalisten
(„Infostärke“, Wissen verbreiten können), Finanzierung. Ein Nachteil
ist ihre Schwerfälligkeit.

Das Konzept: User schreiben Artikel und Redakteure schalten sie frei.
Sich zu profilieren und die trafficstarke Plattform ist für die
‚Prosumer‘ attraktiv. Andere große und kommerzielle Verlage wie
Springer könnten solche Plattformen eher nicht aufbauen.

Manche UGC-Konzepte wie die Leserreporter der Bildzeitung sind relativ
kostenintensiv und es ist fraglich, ob damit jenseits des Hypes Geld
verdient wird.

Peter Schink sagt: Die Vertriebskanäle werden sich ausweiten, es wird mehr UGC
geben, parallele Plattformen werden sich nicht unbedingt gegenseitig
schaden und auf lokaler Basis gibt es kaum Interferenzprobleme der
Plattformen. Zeitungsverlage werden zeitungsunabhängige Plattformen
betreiben zu verschiedensten Themen, um ihre Reichweite zu erhalten.
Bezahlinhalte sind vom Tisch und selbst bei bezahltem Archivzugang
gibt es Probleme. Offene Archive bringen mehr Werbegelder als
Einnahmen durch Archivgebühren.

Generell bleiben viele Fragen in diesem ersten Track offen: Wird man
User bezahlen müssen oder wie sehen Incentives aus? Wie genau ist mit
Urheberrechten und Haftung umzugehen? Werden Bereiche, die jetzt
kostenintensiv besetzt werden, in Zukunft überhaupt Einnahmen für
Verlage generieren? Einige dieser Fragen sollen in für morgen geplanten
Panels wieder aufgenommen werden – ob sie jetzt schon beantwortbar
sind, darf bezweifelt werden.

Das war knapp

Stromberg

Seit drei Tagen habe ich im Heimbüro einen Pauschaltarif (also known as flatrate) von Tele2. Gut so, denn Ende September wäre mein alter 1&1-Zugang vermutlich deaktiviert worden. Schließlich hatte ich ihn Mitte Juli gekündigt, mit vertragsgemäßer Frist von zwei Monaten zum Monatsende.

Damals (die Älteren unter uns werden sich erinnern: vor meinem Urlaub und dem anschließenden Knöchelbruch) hatte ich den Telefon- und Internetpauschaltarif von Tele2 bestellt und an sich erwartet, dass es vielleicht zwei oder drei Wochen dauern würde, bis alles umgestellt wird.

So kann man sich täuschen. Die Bestellbestätigung von Tele2 datiert vom 12. Juli. Am 29. Juli kam eine Mail vom Kundendienst:

Gerne möchten wir Ihren Auftrag so schnell wie möglich bearbeiten. Hierzu fehlen uns noch einige Angaben zu der von Ihnen gewählten Tarifoption.
Da wir Sie telefonisch nicht erreichen konnten, möchten wir Sie bitten, uns unter der kostenfreien Rufnummer 0900-1-XX-XX-XX (Menüpunkt 1) zurückzurufen.
Unsere Mitarbeiter können dann Ihre Bestellung mit Ihnen gemeinsam klären.

Kaum aus dem Urlaub zurück, rief ich also dort an. Das Problem war schnell geklärt: Ich hatte offenbar nicht die erste MSN meines ISDN-Anschlusses angegeben (war danach gefragt worden?), weshalb die Rufnummer keinem Anschluss zugeordnet werden konnte…

Nun dauere es aber nur noch drei Wochen, versicherte mir der freundliche Mitarbeiter am heißen Draht. Ok, kein Problem bis jetzt.

Eine Woche nach diesem Anruf brach mein Knöchel, ich verabschiedete mich ins Krankenhaus und damit vom Internetzugang. Wieder zurück im heimischen Bett, hätte ich einen Pauschaltarif gut gebrauchen können. Inzwischen war auch einige Zeit vergangen. Also erneuter Anruf beim Kundendienst: Wann kommt denn nun mein neues Internet?

Ja, das könne noch etwas dauern, es gebe da Probleme mit den Schnittstellen, und die Telekom gebe den Anschluss nicht frei, weil da ja noch ein anderer Anbieter drauf sei.

Ich, etwas irritiert: Ja, natürlich. Ich habe ja noch einen funktionierenden DSL-Zugang, wie Tele2 aus meiner Bestellung bekannt sein müsste, und ich habe auch die Frechheit, ihn zu nutzen, weil ich ihn brauche. Darauf der Dienstmann:

Nein, mit einer unterbrechungsfreien Internetnutzung solle ich lieber nicht rechnen. Und es werde weitere zwei bis drei Wochen dauern. Nein, die Hardware – mir ging es vor allem um den DSL-Router – könne man mir nicht jetzt schon schicken, weil ich ja noch vom Vertrag zurücktreten könne, und dann hätte Tele2 den Salat (sinngemäß).

Großartig, dachte ich, und bestellte einen DSL-Router bei Amazon, damit das Elend wenigstens einstweilen ein Ende habe.

In der Zwischenzeit nutzte ich fleißig meinen 1&1-Zugang und konnte zusehen, wie die Uhr die Schwelle von 100 Stunden pro Monat überschritt, ab der jede weitere Minute zusätzlich kostete. Und zwar nicht zu knapp. Super.

Mitte September kam Post von Tele2. Man könne mir nun meinen DSL-Zugang schon ab dem 24. August (!) freischalten, und die Hardware gehe jetzt auf den Versandweg. In wenigen Tagen schon sei es soweit.

Anruf bei den freundlichen Kollegen von Tele2: Stimmt das Datum? Ist vielleicht der 24. September gemeint? Antwort:

Nein, das ist schon richtig so. Es habe da Probleme mit der Telekom gegeben, aber nun sei alles gut.

Am Dienstag dieser Woche kam schließlich das Paket mit der Hardware. Der bestellte DSL-Router sei leider nicht lieferbar, hieß es im Begleitschreiben, weshalb ich ersatzweise einen konventionellen Router bekam, den ich auch nach Eintreffen der Nachlieferung behalten könne.

Aber das macht jetzt auch nix mehr. Mir reichten die Zugangsdaten zum Glück. Flugs den vorhandenen Router mit den neuen Zugangsdaten konfiguriert, und schon begann das Pauschalvergnügen.

Schade nur, dass der Münte-Gips inzwischen weg ist, ich also wieder Autofahren kann und daher täglich im Büro bin – mit anderen Worten: Jetzt ist die Flatrate zwar nett (und günstiger als mein früherer Tarif sowieso), aber längst nicht mehr so wichtig wie sie in den Wochen zuvor gewesen wäre…

Auf der Buchmesse

Frankfurter Buchmesse

Bis jetzt 17 10 Blogger plus Backoffice berichten live von der Frankfurter Buchmesse (Termin: 4. bis 8. Oktober). Und wir können sagen, wir sind dabei gewesen – und zwar als Sponsor des offiziellen Buchmesse-Blogs. Es ist uns eine Ehre und ein Vergnügen.

Übrigens, es hilft nichts: Auch die Buchmesse debattiert über Web 2.0. Die Runde wäre, falls alle zusagen, prominent besetzt – mit Ibrahim Evsan (sevenload), Lars Hinrichs (openBC/Xing), Kurt Jansson (Wikimedia) und Oliver Wagner (Lycos/Agenturblog).