Barcamp Tag 2

Foto_100106_002.jpg

„Getting Things Done“: Wie man die Dinge erledigt kriegt

Über die Selbstmanagementtechnik GTD referierte Hans Dorsch.

David Allens „Getting Things Done“-System (oft mit „GTD“ abgekürzt und getaggt) hat eine einfache Grundannahme: Für alle „Sachen“ gibt es einen Ort oder eine „nächste Aktion“.
Die zu beantwortenden Fragen sind einfach: Ist etwas zu bearbeiten? Ist es nützlich? Sind Aktionen zu definieren? Ist etwas auf Termin zu nehmen oder zu archivieren.

Alle Ideen, die im Kopf herumschwirren, werden als Projekte und ihre Arbeitsschritte erfasst und es wird definiert, ob sie auf „Next-Action Listen“, auf Termin oder in einen „Irgendwann“-Korb kommen“.
Auf das Erfassen erfolgt ein „Durcharbeiten“, bei dem nächste Aktionen definiert werden und ein „Erledigen“. Lediglich „einschrittige“ Aufgaben von unter zwei Minuten werden sofort erledigt. Archivmaterialien werden sofort in ein geeignetes alphabetisches System überführt, Terminangelegenheiten kommen in die 42 (31+11/12) Ordner umfassende Wiedervorlage.

Alle mehrschrittigen Aufgaben landen auf einer Projektliste, und für jedes Projekt sind „nächste Aktionen“ zu definieren, die auf Kontextlisten landen.
Kontextlisten sind eine der Innovationen von Allen: Aufgaben werden „Orten“ oder „Umständen“ zugeordnet wie „PC Online“ oder „zu Hause“.
Abhängig vom Kontext können dann die Aktionslisten abgearbeitet werden. Aktionen sind grundsätzlich „sichtbare Handlungen“ wie das Erledigen von Telefongesprächen oder das Verfassen von Brainstorminglisten.

Relativ bald geht es in den Gedankenaustausch über: Die Chaostypen gegen die Strukturierten, die Papierfans gegen die Digitalen. Und es wird klar: GTD verändert nicht von selbst das Leben, ohne Selbstdisziplin erledigen sich eben die Aufgaben doch nicht.


Wikis und Weblogs in Unternehmen

Ohne die passende Kommunikationskultur – die auch zugelassen werden muss – lassen sich Wikis und Weblogs in Unternehmen schwer implementieren. Wird Wissen als Besitz höherer Hierarchieebenen betrachtet, stehen die Chancen für eine Abteilungen und Hierarchien übergreifende Kommunikationsplattform schlecht. Auch Konkurrenzsituationen zwischen Arbeitsbereichen (DIE von der IT, DIE vom Marketing) oder jung/alt spielen eine Rolle. Andererseits stehen und fallen solche Projekte auch mit der Unterstützung der oberen Hierarchieebenen.

Hier ist einiges an Vermittlungsarbeit zwischen den längs und quer laufenden Gruppen und Kulturen zu leisten.
Einstiegsbarrieren sowohl finanzieller und schulungsbezogener Art sind bei klassischen Wissensmanagement-Anwendungen das Problem; Wiki-Anwendungen sind inzwischen relativ gut bekannt und haben relativ niedrige Einstiegsschwellen.
Bei SAP sind beispielsweise Systeme parallel im Einsatz: Offizielle Dokumente liegen im Portal, während Entwicklerdokus zunächst im Wiki liegen, die dann, wenn sie ‚stehen’, ins offizielle Portal wandern.

Auch bei (beeep), einer große deutschen Wochenzeitung, sind neben internen Newsgroups auch viele Wikis und sogar ein interner Instant-Messaging-Server im Einsatz. Erwartbar ist, dass der Kulturwandel allein dadurch einsetzt, dass einige wenige Leute diese Werkzeuge einfach benutzen.

Wie profitieren Unternehmen von ‚einfachem’ KM?
Einige Pluspunkte sind sichtbar:

  • Wissen wandert nicht ab oder ist auch bei Abwesenheit verfügbar.
  • Statt Systeme zu bauen kann man sich auf die Bereitstellung von Infrastruktur konzentrieren.
  • Fehlt eine solche Struktur, so holen sich die Mitarbeiter ihr Wissen aus dem ‚offenen Internet’ und ihre Nachfragen außen werden zum Informationsleck.
  • Menschen, denen man kreative Tools zur Verfügung stellt, entfalten Kompetenzen über ihre enge Arbeitsrolle hinaus und bringen ihr Potential optimal ein.
  • E-Mail-Volumina nehmen in der Regel bei Nutzung dieser Tools ab – Informationen können besser verteilt werden, als durch (zu breite) Streu-CC:s in E-Mails.
  • Wenn die Menschen gewohnt sind, sich Informationen im internen Netz auf dem Holschuldweg selbst zu organisieren, sind sie medien-affiner und auch eher auf dem neusten Stand, was Entwicklungen und Strategien im Unternehmen und Strukturen seiner Kultur betrifft.
  • Besteht eine Kommunikationskultur, so kann man auch die „informellen“ Netze und Informationsquellen nutzen, um Fragestellungen anzugehen.

Auf manche Fragen wäre noch einzugehen: Wie nun unterstützt man diesen Kulturwandel, wie motiviert man zu Leistungen in solchen Systemen jenseits des digitalen Schulterklopfens?

Zu bewähren scheinen sich offene Angebote, eigene Tool-Zusammenstellungen in übersichtlichen Gruppen zu nutzen, zu denen frei eingeladen werden kann.
Und: Ist eine Motivierung überhaupt notwendig, wenn ohnehin eine ganze Phalanx an Schwarz-Wikis ohnehin im dunkeln blühen, wie bei einem großen Automobilhersteller.

Und mehr: Ein neues Berufsbild des „Community Managers“ (z.B. bei BASF), die die interne Kommunikation in „zweinulligen“ Internstrukturen bearbeiten, entsteht.


Bürgerjournalismus und/oder User Generated Content

Erste UGC-Projekte in Deutschland sind die BILD-Leserreporter (Fotos), Opinio (Rheinische Post), Stern „Augenzeuge“ (Foto-Agentur), Readers Edition (netzeitung.de) und „Tagesspiegel Sensation“ (Satire) – alle verfolgen verschiedene Ansätze und Ziele. Bei den „stern shortnews“ werden texte aus externen Quellen neu formuliert.

International am erfolgreichsten ist OhmyNews (in Süd-Korea seit 2001), als Vorbild für weltweiten kollaborativen Journalismus, das wohl primär aufgrund restriktiver Bedingungen in Süd-Korea erfolgreich wurde.

Was ist Bürgerjournalismus und was sind seine Ziele? Wie ist die Situation heute einzuschätzen? Ist Journalismus ein zu erlernendes Handwerk oder eine „normale“ Äußerung von Bürgern?

„Wenn Leute etwas intelligentes zu sagen haben, dann sollte man die Reichweite dafür schaffen“, meint Peter Schink, der bei der Netzeitung für die Konzeption der Readers Edition zuständig war und jetzt bei der Welt Blogs implementiert und für den Online-Relaunch verantwortlich ist. Er geht davon aus, dass Bürgerjournalismus sich dem Journalismus annähern sollte, dass beide Formen aber nicht auf einer Stufe stehen.

Bei der Readers Edition kamen laut Schink nur wenige Urheberrechtsverletzungen oder Einschmuggelungen von PR-Inhalten vor. Gegenüber Modellen wie bei den Linkbewertern Digg.com/Yigg.de wird auf einer solchen Inhaltsplattform jedoch ein gemeinsamer Standard geschaffen. „Was uns fehlt ist ein Google News für Blogs“, wünscht sich Schink.

„Bei den Bürgern ist soviel Insiderwissen vorhanden, dafür wäre eine Plattform wünschenswert“, konstatiert Gerd Stodiek vom Blogverlag Mosaicmotion, der auch über die Differenzen zwischen Bürgerradio in Afrika und deutschen Projekten berichtete.

Politik online und Netzpolitik

Foto von Oliver Baumgart

Es sind mehr Fragen und Optimismus, die die „Politik Online“-Session
unter Leitung von Falk Lüke (Berlin) beim ersten Barcamp Deutschlands
in Berlin prägen.

Kann man online Politikverdrossenheit entgegenwirken? Wo zieht man –
vor allem am rechten Rand – die Grenze? Ist auch ein rechtes Blog
Information oder Demagogie? Sind Wikis innerhalb von Parteien oder
über Parteigrenzen hinweg eine Möglichkeit ausgewogene und
„bullshit-freie“ Information an Bürgerinnen und Bürger zu bekommen?
Immerhin konnte man sich auf einen Ansatz einigen: Wünschenswert wäre
eine „Matrix der Meinungen“, in der die Ansätze der Parteien zu
verschiedenen Fragestellungen in Differenz zu anderen Parteien und
eventuell in Differenz zu früheren Statements der Partei dargestellt
werden.

Markus Beckedahl hat unangenehme Fragen gleich zu
Anfang: Wie erklärt sich die Differenz zwischen Interesse an
netzpolitischen Fragestellungen und dem Mangel an Aktion und dem
Unwissen der Entscheider in der Politik andererseits? Also kurz: Warum
engagieren sich so wenige? Warum nutzen die Techniker nicht ihre
Fähigkeiten, um politische Infrastrukturen zu bauen?
Während viel zu wenige ihre Blogs als politische Plattformen nutzen,
arbeiten andere an einem Konsumnetz, das dem Fernsehen immer ähnlicher
wird.

Ein Erfolg war zu erzeichnen beim Thema Softwarepatente: Geeks und
Nerds vernetzen sich über Mailinglisten und beschäftigten sich mit
Politik-Hacking, indem sich eine große Gruppe nach Brüssel begab und
das direkte Gespräch mit Politikern suchte – und sie waren
erfolgreich. In der breiten Bevölkerung aber bleiben IT-Themen unter
der Decke, solange nicht wirklich große Skandale passieren. Was wäre zu
tun, um solche Probleme einer breiteren Gruppe zu kommunizieren? Als
Hürde erweist sich dabei natürlich die Techniksprache der Fachleute –
hier wäre bei einer Übersetzung ins Allgemeinverständliche anzusetzen.

Eine der nächsten Herausforderungen sei das neue Urheberrecht, das
sich auf ein im Wesentlichen „kaputtes“ Digital Rights Management (DRM)
stütze. Aber auch bei den Geeks stoßen manche immer wieder
durchgekaute Themen nicht selten auf taube Ohren.

Als erfolgreich erweisen sich Kampagnen, die sich auf konkrete Handlungen
kaprizieren: Briefversand, Demonstrationen auf der Straße und
Ähnliches. Gleichzeitig könnte sich die ‚Netzpolitik‘ Hilfe zum
Beispiel bei den Mediengestaltern holen, Wettbewerbe veranstalten. Bei
großen Agenturen stößt man da wohl eher auf taube Ohren, ist die
Einschätzung von Patrick Breitenbach.

Was fehlt ist neben einer bürgernahen Sprache auch der Super-GAU, es
fehlt ein Tschernobyl-Äquivalent, es fehlt die großäugige Robbe.
Solche Bilder – natürlich ohne die dazu passende Katastrophe – gilt es für die IT zu schaffen und in globale Kampagnen einzubinden, darauf konnte sich die Gruppe einigen. Und schaut
neidisch in die USA, wo sich eine breite Koalition für die
Netzneutralität zusammen.

Foto: Oliver Baumgart

Blogsuchmaschinen

Christopher Laux‘
Motivation zur Arbeit an einer eigenen Suchmaschine für Blogs stammt
aus der Unzufriedenheit mit der Qualität von Blogsuchmaschinen: Die
Ergebnisse von Suchen innerhalb von Blogs waren über Dienste wie
Technorati oder die Blogsuche von Google oder Yahoo nicht zu
erreichen. Beim Barcamp Berlin diskutierte er seine Erfahrungen bei
den ersten Schritten, eine eigene Blogsuchmaschine zu bauen.

Die Maschine funktioniert so: Während ein „Spider“ Blogs findet, hat ein
„Visitor“ die Aufgabe, aktuelle Einträge zu finden. Diese beiden
Elemente sind bereits implementiert. Noch zu bauen sind Suchalgorithmen
und ein Webinterface, das Nutzern die eigentliche Suche erlaubt.

Im Spiderkonzept werden Bäume entsprechend bewertet, beispielsweise
als „Spam-Zweig“ (kappt man den, so werden auch viele andere
Spamquellen „gekappt“) oder als „Such-Zweig auf Italienisch“.
Sofern die Blogsuchmaschine monolingual (also beispielsweise englisch)
spidern soll, müssen auch fremdsprachige Blogs ausgeblendet werden.
Die Blogs in der Wunschsprache lassen sich recht einfach über einen
hohen Anteil an Wörtern aus einem passenden Lexikon ermitteln.

Vermeiden muss man auch, dass der Spider „im Kreis läuft“, denn unter
Millionen Blogs im Index solche Kreise zu ermitteln ist von der
Rechenkapazität her problematisch.
Generell wird auch versucht zu ermitteln, welche Teile des Blogs
welche Infos (Archivlink, interne Links, Blogroll) enthalten, und im
Prinzip können aus diesen Strukturen auch semantische
Schlussfolgerungen gezogen werden.
Blogs selbst werden erkannt anhand ihrer typischen URL-Struktur:
Anhand von 30 Regeln werden bisher 80% der Blogs erkannt. RSS als
Indikator zu nehmen hat sich nicht bewährt.

Im Betrieb zieht der Spider 1 GB/Stunde, es empfiehlt sich also ein
Server mit unlimitiertem Traffic. Ein Bloom-Filter
erübrigt es, alle bisher
erfassten URLs im Speicher zu halten, und die Datenfiles werden linear
strukturiert.

Der Visitor ist ähnlich strukturiert wie der Spider. Hier fallen
allerdings 30 GB/h an – wahrscheinlich weil die dafür vorgesehene
Maschine schneller ist. Statt 30 Connections wie beim Spider werden hier
parallel 50 Verbindungen gefahren.

Ein Problem war, dass nach einer halben Million Blogs dem System nach
einiger Zeit die Blogs ausgingen: Die Datenbank umfasst lediglich eine
halbe Million Blogs und … geht davon aus, dass das die halbe Million
‚besten‘ Blogs sind.
Aus den ‚Wer linkt auf wen“-Statistiken lässt sich ableiten, dass die
Long-Tail-Relation in der Tat umgekehrt exponentiell zueinander
verhält: Es gibt weniger und weniger Blogs mit immer mehr und mehr
Links, die auf sie zeigen. Für die Statistiker unter den Lesenden: Bei
einer doppelt logarithmischen Darstellung ergibt sich eine angenäherte
Gerade.

Timo Derstappen hat auf der
Basis von Technorati-Daten ein ähnliches System als Alert-System für PR-Abteilungen gebaut,
deren eigentliches Ziel die Auslösung eines PR-Alarms war, wenn
bestimmte Begriffe ‚peaken‘. Begriffe wurden in von Hand erstellten
Topic-Maps semantisch miteinander verknüpft und können so benutzt
werden, um Texte inhaltlich zu bewerten. Die Hardware-Anforderungen
sind relativ hoch und schwer im Rahmen eines Hobbyprojekts zu
realisieren. Invalides HTML oder RSS und Spamblogs waren auch für
dieses System – das aktuell nirgends installiert ist – ein Problem.

Buchtipp: „Mining the Web – Discovering Knowledge from Hypertext Data“
von S. Chakrabarti

Social Microformats, distribuierte Social Networks und der baldige Tod von OpenBC/XING, StudiVZ & Co.

Pixelsebi erklärt beim Barcamp-Wochenende
Berlin
, was die Probleme dabei
sind, dass Plattformen wie Myspace, Studio, Facebook oder OpenBC
unsere Netzwerk und Kontaktdaten in zentralen, nach außen nicht
offenen Systemen speichern:
Bei einem Wechsel im Leben, wenn man beispielsweise nicht mehr Student
ist, müsste man ‚migrieren‘ und verliert sein Netzwerk oder muss es
mühsam im neuen Service abbilden. Ähnlich verhält es sich, wenn ein
Dienst eingestellt wird oder jemandem verkauft wird, dem die Nutzer
nicht vertrauen.

Mikroformate zur Abbildung von Netzwerken und Kontaktdaten,
beispielsweise FOAF hCard und XFN, würden Möglichkeiten bieten, diese Informationen
in universeller Art abzubilden und sie an einem Speicherort eigener
Wahl miteinander zu vernetzen. Auch die Kontrolle darüber, wer welche
Daten einsehen kann, wäre wesentlich besser gegeben als aktuell.

Die Plattformbetreiber sind natürlich an einem solchen dezentralen
System nicht interessiert. Andererseits würde eine solche
Dezentralisierung die Annahme solcher Social Networks stark
beschleunigen und wäre im Interesse der Nutzer, die so wesentlich
einfacher ihre Kontaktdaten (Mail, mehrere IM-Systeme, mehrere
Netzwerke, Blogleserschaften etc.) miteinander abgleichen könnten.

Auch aus Sicht von Unternehmen wäre so etwas spannend, denn auch sie
wollen ihre sozialen Netzwerke überblicken können, sei es nach außen,
zu Lieferanten und Kunden, sei es – was Sebastian nicht ansprach –
nach innen ins Unternehmen selbst. Gerade für markenzentrierte
Netzwerke wäre eine solche plattformübergreifende Zugangsweise sehr
wertvoll.

„Dapper“ beispielsweise hat eine Technologie
entwickelt, um nach Eingabe einer URL das Profil, das dazu passt, in
Bausteine zu zerlegen, und man kann aus diesen Bausteinen wieder ein
„Profilkonstrukt“ rekonstruieren. Problematisch ist solches ‚Screen
Scraping‘ natürlich aus rechtlicher Sicht, aber an sich zeigt es den
Bedarf, der für einen solchen Dienst gibt, der Profildaten vernetzt.

Die Diskussion bewegt sich zwischen Fragen von Copyright und
Urheberrecht an den Daten in solchen Plattformen und der
Frage, ob dezentrale Systeme vertrauenswürdiger sind als
zentralisierte Angebote unter Firmenkontrolle. Was „verrate“ ich über
meine Freunde, was die eventuell gar nicht veröffentlicht haben
wollen? Wie genau wird authentisiert, ob jemand, der behauptet, ich zu
sein, auch die Wahrheit sagt?

Dienste wie ‚ClaimID‘ bieten schon
Vernetzungsdienste für Logins bei verschiedenen Netzwerken und
übernehmen so zentrale Vernetzungsaufgaben.

Bei People Aggregator hingegen kann man
– allerdings mit einem schwer benutzbaren Interface – alle
Schnittstellen zu verschiedenen Identitäten bei verschiedenen Diensten
zur Verfügung stellen.

Zu diesen neuen übergreifenden Identifikationsansätzen soll es eine
separate Session geben.

Barcamp: Eine Un-Konferenz in Berlin

Barcamp

2005 rief Tim O’Reilly 250 seiner Freunde zum Foo-Camp (Friends of
O’Reilly). Die Reaktion darauf war die Einrichtung des ersten Barcamp,
einer Nicht-Konferenz, die sich ‚on the spot‘ selbst organisiert. Bei
der spontan Themen und „Slots“ organisiert werden. Die erste solche
Konferenz
findet an diesem
Wochenende in Deutschland in Berlin statt. Gastgeber ist Pixelpark
nahe dem Warschauer Platz, aber organisiert wird das Camp von einer
unabhängigen Kern-Orgatruppe und den Teilnehmenden selbst. JedeR ist
aufgefordert einen eigenen Vortrag oder eine Gesprächsrunde anzubieten
und wie nicht anders zu erwarten kreisen viele der Themen um Technik
und Konzepte von Social Software, Social Media und Onlineapplikationen
(auch „Web 2.0“ genannt – aber wer kann das noch hören?).

Session 1: Zukunft der klassischen Medien

Roland Riethmüller von der NWZ in Oldenburg
skizziert,
wie seine Zeitung sich mit seiner Unterstützung auf die gewandelte
Situation eingestellt hat. Blogs, Portale und Homepages machen ihr
Konkurrenz im Textbereich, Radio bekommt Konkurrenz durch Downloads,
Podcasts und Streaming, TV muss sich mit Vodcasts, IP-TV und
Videoportalen um das Zeitbudget der Zuhörer kloppen.

Doch auch die Zeitung ist im Netz selbst präsent: auf dem Web, via SMS
auf Handys, mit M-Papers oder gar mit eigenen Blogs.

Die Mediennutzer aber lassen sich weniger in Zielgruppen einteilen
(der bei ALDI kaufende Porschefahrer) und Medien werden – auf Kosten
der Aufmerksamkeit – parallel genutzt.
Der One-to-Many-Ansatz wird durch eine
Many-to-Many-Dialogkommunikation ersetzt. Das Kommumnikationsmonopol
ist gefallen.

Die Zeitung kann als Qualitätsprodukt jedoch Marktaneile
zurückgewinnen und ihre starke Marke ins Spiel bringen: Zeitungen
gelten als vertrauenswürdiger als die oft pseudonym publizierten
Blogs. Über eine Aufspreizung ihrer Kanäle Richtung Mobilcontent,
Audio und Video kann die Zeitung mehr Menschen erreichen.

Die NWZ beispielsweise setzte eine Jugendcommunity mit Partyfotos auf.
Jugendliche können sich selbst auf den Fotos mit Mitgliedsnamen
‚taggen‘ und sich so vernetzen. Fotos werden getaggt.

Peter Schink berichtet über den Aufbau der Netzeitung
und deren „Readers Edition“
– einem Versuch, ‚user generated
content‘ für diese Newsplattform nutzbar zu machen.

User Generated Content treibt das Konzept des Leserfeedbacks und der
Leserbindung auf eine neue Ebene. Während Wikinews nicht funktioniere,
erklärt Schink.

Verlage haben ihre Vorteile bei Reichweite, Kompetenz der Journalisten
(„Infostärke“, Wissen verbreiten können), Finanzierung. Ein Nachteil
ist ihre Schwerfälligkeit.

Das Konzept: User schreiben Artikel und Redakteure schalten sie frei.
Sich zu profilieren und die trafficstarke Plattform ist für die
‚Prosumer‘ attraktiv. Andere große und kommerzielle Verlage wie
Springer könnten solche Plattformen eher nicht aufbauen.

Manche UGC-Konzepte wie die Leserreporter der Bildzeitung sind relativ
kostenintensiv und es ist fraglich, ob damit jenseits des Hypes Geld
verdient wird.

Peter Schink sagt: Die Vertriebskanäle werden sich ausweiten, es wird mehr UGC
geben, parallele Plattformen werden sich nicht unbedingt gegenseitig
schaden und auf lokaler Basis gibt es kaum Interferenzprobleme der
Plattformen. Zeitungsverlage werden zeitungsunabhängige Plattformen
betreiben zu verschiedensten Themen, um ihre Reichweite zu erhalten.
Bezahlinhalte sind vom Tisch und selbst bei bezahltem Archivzugang
gibt es Probleme. Offene Archive bringen mehr Werbegelder als
Einnahmen durch Archivgebühren.

Generell bleiben viele Fragen in diesem ersten Track offen: Wird man
User bezahlen müssen oder wie sehen Incentives aus? Wie genau ist mit
Urheberrechten und Haftung umzugehen? Werden Bereiche, die jetzt
kostenintensiv besetzt werden, in Zukunft überhaupt Einnahmen für
Verlage generieren? Einige dieser Fragen sollen in für morgen geplanten
Panels wieder aufgenommen werden – ob sie jetzt schon beantwortbar
sind, darf bezweifelt werden.