Textanalysewerkzeuge und ihr Einsatz in den Digitalen Geisteswissenschaften

Manuel Burghardt und Christian Wolff sprechen im Rahmen der DH-Summerschool in München, am 29.7.2015 zum Thema „Textanalysewerkzeuge und ihr Einsatz in den Digitalen Geisteswissenschaften“. Dieser Blogpost soll einerseits den Teilnehmenden der Summerschool als Plattform zum Download bzw. zur Verlinkung relevanter Ressourcen dienen, und mag andererseits auch für all diejenigen interessant sein, die sich erstmals mit dem Thema automatische Textanalyse beschäftigen.

Foliensatz

summerschool-2015-slides

Voyant-Übung

Im Rahmen dieser Übung wird ein digitalisierter Text mit dem frei verfügbaren Web-Tool Voyant automatisch analysiert. Dabei sollen die folgenden Fragen Schritt für Schritt beantwortet werden:

  1. Aus wie vielen types und tokens besteht der Text?
  2. Welche Wörter (Lemmata) kommen am häufigsten vor (mit und ohne Stoppwortliste)?
  3. Welche Wortarten kommen am häufigsten vor?
  4. Welche Adjektive (Lemmata) kommen am häufigsten vor?
  5. Welche Kollokationen kommen im Text vor?

Zuletzt soll schließlich noch gezeigt werden, wie mit Voyant mehrere Texte anhand der oben genannten Parameter verglichen werden können

Download des Übungstexts

Als Übungstext wird das erste Kapitel von Franz Kafkas „Der Prozess“ verwendet, welcher über Projekt Gutenberg-DE frei verfügbar ist.

  • Eine grundlegend normalisierte Version des Texts finden Sie hier: kafka.txt

Foto 2

1. Aus wie vielen types und tokens besteht der Text?

Schritt 1 – Aufruf des Tools

Navigieren Sie nun zum Web-Tool Voyant: http://voyant-tools.org/

Hinweis: Für die weitere Vertiefung finden Sie ein Tutorial zum Tool unter „Voyant Getting started

Schritt 2 – Importieren des Übungstexts

Importieren Sie den Kafka-Text in Voyant indem Sie …

  • die heruntergeladene Datei „kafka.txt“ über den Upload-Dialog hochladen,
  • oder die heruntergeladene Datei „kafka.txt“ öffnen, und den Text über copy-paste in das Formularfeld einfügen,
  • oder den Link zur TXT-Datei „kafka.txt“ in das Formularfeld kopieren.

Schritt 3 – Analyse des Texts auf Types und Tokens

Betrachten Sie die Standard-Analyse von Voyant:

  • Was ist grundlegend zu sehen?
  • Aus wie vielen tokens besteht der Text?
  • Aus wie vielen types besteht der Text, und was hat es in Voyant mit sog. „unique words“ auf sich?

Beobachtung

Um types auszählen lassen zu können, müssen die Wörter zunächst auf ihre Grundformen (Lemmata) reduziert werden.

Zwischenschritt (wurde bereits vorbereitet)

Für die Beantwortung der weiteren Fragen ist eine grundlegende Wortartenannotation und Grundformenreduktion nötig. Der Übungstext wurde mit dem TreeTagger automatisch lemmatisiert und nach Wortarten annotiert (Tagset: STTS). Das Ergebnis der Annotation wurde als XML-Datei gespeichert.

Ein vollständiges Tutorial zur Erstellung eigener annotierter Ressourcen mit dem Onlinedienst WebLicht finden Sie hier: WebLicht-Tutorial

  • Download: Den Kafka-Text mit grundlegender POS-Annotation und Lemmatisierung finden Sie hier: kafka.xml

2. Welche Wörter (Lemmata) kommen am häufigsten vor (mit und ohne Stoppwortliste)?

Schritt 1 – Betrachten der XML-Datei „kafka.xml“

Öffnen Sie die XML-Datei „kafka.xml“ in einem beliebigen Editor, und betrachten Sie deren grundlegende Struktur.

  • Welche Informationen sind als Annotationen im Dokument hinzugefügt worden?

Exkurs – Selektion spezifischer Dokumentteile mit XPath

XPath ist ein einfacher Selektionsmechanismus, mit dem Sie spezifische Dokumentteile in einem XML-Dokument auswählen können.

XPath-Beispiel-01

Schritt 2 – Hochladen der XML-Datei auf Voyant und Definition eines XPath-Ausdrucks

Navigieren Sie abermals zur Startseite von Voyant. Nun soll allerdings nicht der gesamte Text eingelesen werden, sondern nur die Wörter, die innerhalb eines <lemma>-Tags stehen. Klicken Sie hierzu auf das kleine Zahnrad und definieren Sie im Feld „XPath to content“ den folgenden XPath-Ausdruck:

/DocumentElement/Table1/lemma

XPath-Voyant-01Laden Sie nun über den Upload-Dialog die Datei „kafka.xml“ hoch. Das Ergebnis ist eine Voyant-Analyse über der Lemma-Teilmenge des Dokuments, also ausschließlich der Grundformen.

Beobachtung

Nicht ganz unerwartet sind in unserem Übungstext bestimmte und unbestimmte Artikel, Konjunktionen, Personalpronomen, etc. besonders hochfrequent. Da solche Wörter typischerweise keine oder nur geringe semantische Aussagekraft haben – man spricht auch von sogenannten Synsemantika – werden sie meist mithilfe von Stoppwortlisten von der Korpusanalyse ausgenommen. Auch Voyant stellt solche Stoppwortlisten bereit, die bei Bedarf an spezifische Anwendungszwecke angepasst werden können.

Schritt 3 – Anwendung der deutschen Stoppwortliste

Wenden Sie die deutsche Stoppwortliste in Voyant (Wordcloud-Fenster > „Zahnrad-Icon“ > „Stop Word Lists“ > „German“) auf das Lemma-Teilkorpus an. Markieren Sie außerdem die Checkbox „Apply Stop Words Globally“, damit die Stoppwortliste auch für andere Analysedarstellungen in Voyant angewendet wird, und Sie eine konsistente Analyse bekommen.

Voyant-Stopwords

Nach Anwendung der Stoppwortliste zeigt sich, dass relativ viele „unknowns“ im Text sind.

Zur Erläuterung: Wo sich der TreeTagger nicht sicher ist, wie das Lemma oder die Wortart eines Wortes lautet, trägt das Programm den Wert „unknown“ ein.

Schritt 4 – XPath-Ausdruck zur Analyse der unknowns

Formulieren Sie nun in Voyant einen XPath-Ausdruck, der den Inhalt aller Wort-Elemente selektiert, welche im Lemma-Tag den Wert „unknown“ haben:

/DocumentElement/Table1[lemma='unknown']/word
  • Ist plausibel warum der TreeTagger gerade diese Wörter nicht erkannt hat?

3. Welche Wortarten kommen am häufigsten vor?

Nachdem bereits XPath-Abfragen zur Lemma-Information einzelner Wörter erstellt wurden, soll nun die Wortarten-Information abgefragt werden. Definieren Sie in Voyant einen XPath-Ausdruck der alle Wortarten-Werte selektiert:

/DocumentElement/Table1/pos

Die Wortarten sind mithilfe der Kürzel aus dem STTS getaggt worden. Es zeigt sich, dass „normale Nomen“ (NN), „Personalpronomen“ (PPER), und „Adverbien“ (ADV) zu den drei häufigsten Wortarten gehören.

4. Welche Adjektive (Lemmata) kommen am häufigsten vor?

Definieren Sie nun in Voyant einen XPath-Ausdruck, der alle Lemmata selektiert die Adjektive sind:

/DocumentElement/Table1[pos='ADJD']/lemma

5. Welche Kollokationen kommen im Text vor?

Voyant hält eine Vielzahl unterschiedlicher Analysetools und Visualisierungen bereit.

Eine ausführliche Erklärung all dieser Tools finden Sie hier: http://docs.voyant-tools.org/tools/

Schritt 1

Laden Sie wiederum den Kafka-Text (kafka.xml) hoch und selektieren Sie alle Lemmata (siehe Aufgabe 2).

/DocumentElement/Table1/lemma

Schritt 2

Wenden Sie die deutsche Stoppwortliste an, und ergänzen Sie das Wort „unknown“, um alle unbekannten Lemmata aus der Analyse auszunehmen.

Schritt 3

Öffnen Sie nun das Tool „Collocate Clusters“ im Fenster links, Mitte  („Summary“) über das Diskettensymbol > „URL for a different tool / skin and current data“ > „Collocate Cluster“ > „Open this URL in a new window“.

collocate-clustersSchritt 4

Analyse der Kollokationen

 6. Vergleich von mehreren Texten

Schritt 1 – Herunterladen weiterer Kafka-Texte

Nun sollen mehrere Texte miteinander verglichen werden. Laden Sie sich hierzu zwei weitere Kafka-Texte herunter:

Originalquelle Projekt Gutenberg-DE:

Download der normalisierten Textdateien:

Der Einfachheit halber können Sie einfach die folgenden Links in das Voyant-Formular kopieren:

https://dl.dropboxusercontent.com/u/4194636/kafka.txt
https://dl.dropboxusercontent.com/u/4194636/kafka2.txt
https://dl.dropboxusercontent.com/u/4194636/kafka3.txt

 Schritt 2 – Vergleichende Analyse der Texte

voyant-textvergleichOnline-Version der obigen Analyse.

Digitale Textsammlungen im Web

Digitale Textanalysewerkzeuge

Natural Language Processing Tools zur „Vorverarbeitung

Literaturhinweise / Weblinks

Workshop: „Digital humanities and the technologies of the semantic web”

Pre-conference workshop on „Digital humanities and the technologies of the semantic web: decolonizing description for the sake of digital humanities” at the International Symposium of Information Science (ISI 2015, Zadar).

Workshop Programm

Organizers: Marijana Tomić, Manuel Burghardt, Mirna Willer, Anne Gilliland & Gordon Dunsire; In cooperation with: Theresa Zammit Lupi

10:00 – 11:30

  1. Prof. Anne Gilliland, PhD & Prof. Mirna Willer, PhD. Implications of the
    Information Multiverse for Bibliographic and Archival Information
    Organization
  2. Gregory Rolan. Beyond the collection: the network as archive
  3. Giovanni Michetti, PhD, Assistant Professor. Unneutrality of archival standards and processes

Coffee break   11:30-12:00

12:00 – 13:30

  1. Gordon Dunsire, Consultant. Linked data & paradigm shift: from the (catalogue) record to the statement (triple) in OWA (presented by Prof. Mirna Willer, PhD)
  2. Marijana Tomić, PhD, Assistant Professor. Research data in humanities and OWA
  3. Theresa Zammit Lupi, PhD (Skype). The design of a database as a research tool for the study on a collection of musical manuscripts

Lunch   13:30 – 14:30

14:30 – 16:00

  1. Prof. Christian Wolff, PhD. Challenges of Description in a Multi-Lingual, Diachronic Corpus Project
  2. Manuel Burghardt, PhD. Description of Dramatic Texts for Quantitative Analysis
  3. Marijana Tomić, PhD, Assistant Professor. Visual tagging of digitized manuscripts and incunabula with DocMark software
  4. Manuel Burghardt, PhD. Encoding and Analyzing a Large Corpus of German Folk Music – A Case Study

Coffee break 16:00 – 16:15

16:15 – 17:00 Final discussion moderated by workshop organizers

Call for Participation

The 14th International Symposium of Information Science (ISI) will be held from May 19-21, 2015, in Zadar (Croatia). A pre-conference workshop on „Digital humanities and the technologies of the semantic web: decolonizing description for the sake of digital humanities” will take place on May 18, 2015.

Participation is open to (1) workshop presenters, and (2) general participants interested in attending the workshop. Workshop registration via email is required.

If you are planning to participate as a presenter, please send a position paper (1-2 pages) to
Marijana Tomić (University of Zadar) or Manuel Burghardt (University of Regensburg) until April 26, 2015.

Participants who have had their position paper accepted by the workshop organizers will have approx. 10 minutes time to present their topic to the other participants. All topics will then be discussed in the workshop. For a list of potential topics please refer to the detailed workshop description on the ISI 2015 website: http://isi2015.de/?page_id=791

We are looking forward to see you at the pre-conference workshop in Zadar. If you have any questions please contact the workshop organizers.

Contact:
Marijana Tomić: mtomic@unizd.hr
Manuel Burghardt: manuel.burghardt@ur.de

Workshop zur computer-basierten Dramenanalyse

Von 12.-13. März fand in München, an der Bayerischen Akademie der Wissenschaften, ein Workshop statt, der sich ganz der computer-basierten, quantitativen Analyse von Dramen widmete. Den offiziellen Workshop-Call finden Sie hier. Nach einer Einführung in den aktuellen Stand und die Geschichte quantitativer Dramenanalyse durch die Workshopveranstalterin Katrin Dennerlein (Uni Würzburg), folgten eine ganze Reihe von spannenden Vorträgen, die sowohl neue Ressourcen als auch eigene Analysestudien und Tools thematisierten.

Workshop Schedule

Ein weiteres Highlight war unter anderem auch die Anwesenheit von Franco Moretti, der am Stanford Literary Lab zahlreiche spannende DH-Projekte leitet, und vor allem durch sein Konzept des „Distant Reading“ Bekanntheit über die Grenzen der Digital Humanities hinaus erlangte.

Der Regensburger Beitrag von Manuel Burghardt und Thomas Wilhelm päsentierte ein Shakespeare-Visualisierungstool. Darüber hinaus wurde ein neues, gerade entstehendes Kooperationsprojekt mit Katrin Dennerlein vorgestellt, welches flexibler angelegt ist, und versucht Dramen aus dem TextGrid-Repository quantitativ zu analysieren, und die Ergebnisse dieser Analyse interaktiv in einem einfach zu bedienenden Web-Interface für Geisteswissenschaftler verfügbar zu machen. Dabei werden insbesondere quantitative Aspekte wie die Konfigurationsdichte sowie auch die Replikenlänge und Replikenanzahl von Dramentexten berücksichtigt. Den Foliensatz zum Vortrag finden Sie hier.

Foliensatz "Tools für die quantitative Dramenanalyse"

Foliensatz „Tools für die quantitative Dramenanalyse“

Interessante Tools und Ressourcen

Tools und Methoden zur quantitativen Dramenanalyse

Regensburger Beiträge auf der DHd 2015

Die zweite Jahrestagung des Verbands „Digital Humanities im deutschsprachigen Raum“ (Dhd) findet in dieser Woche an der Karl-Franzens-Universität in Graz statt. Nachdem es bei der letzten DHd in Passau mit den Lebkuchenherzen bereits eine regionaltypische, kulinarische Überraschung in den Konferenzpaketen gab, gibt es auch auf der DHd 2015 Köstlichkeiten aus der Steiermark.

dhd-2015-gifts

DHd-Schmankerl aus der Steiermark: Kernöl und Zotter-Scholokade.

Auch die Regensburger Medieninformatik ist mit zwei Beiträgen auf der Konferenz vertreten. Martin Dechant wird ein Poster zur Rekonstruktion des Regensburger Ballhauses vorstellen, Manuel Burghardt präsentiert ein Poster zum StreetartFinder.

Beide Beiträge stehen ab sofort zum Download zur Verfügung:

 

DH-Projektstelle in Regensburg zu besetzen

Für das DFG-Projekt „PaLaFra“ ist ab April 2015 eine Stelle im Bereich Computerlinguistik / Informatik zu besetzen.

Sie unterstützen eine interdisziplinäre Forschungsgruppe aus Romanisten, Korpus- und Computerlinguisten bei der Erforschung des Übergangs vom Latein zum Altfranzösischen. Typische Aufgaben umfassen die automatische Satzsegmentierung, Tokenisierung, Lemmatisierung, morpho-syntaktische und syntaktische Annotation sowie die Alignierung unterschiedlicher Texte als Parallelkorpus. Auf Basis dieser Vorverarbeitungsschritte sollen Heuristiken entworfen werden, die es erlauben, mithilfe von maschinellen Lernverfahren Annotationsvorschläge für eine weiterreichende, diskurspragmatische Annotation zu entwickeln. Schließlich soll das annotierte Korpus unter Berücksichtigung bestehender Analyse-Tools, wie etwa der TXM-Plattform, ausgewertet werden, und über eine Weboberfläche verfügbar gemacht werden. Die Projektstelle bietet die Möglichkeit einer wissenschaftlichen Weiterqualifikation im Rahmen einer Promotion.

Weitere Details zur Stellenausschreibung finden Sie hier.

Deutsch-französische Kooperation im Bereich der Digital Humanities: PaLaFra

Die drei Regensburger Wissenschaftler, Prof. Maria Selig, Dr. Rembert Eufe (beide Institut für Romanistik) und Prof. Christian Wolff (Institut für Information und Medien, Sprache und Kultur) haben gemeinsam mit französischen Kolleginnen und Kollegen von der École Normale Supérieure in Lyon und der Universität Lille einen Erfolg bei der Deutschen Forschungsgemeinschaft und der Agence Nationale de Recherche errungen. Ihr gemeinsames Projekt PaLaFra (Le passage du latin au français) bereitet die Publikation eines im Netz frei konsultierbaren Korpus von spätlateinischen und altfranzösischen Texten vor und wird mit einem Finanzvolumen von etwa 750 000 Euro (Laufzeit 36 Monate) gefördert. Die Vorbereitung dieser deutsch-französischen Kooperation wurde vom Bayerisch-Französischen Hochschulzentrum (BFHZ) unterstützt. Die Projektarbeit soll im April 2015 starten.

Die Kooperation wird dazu beitragen, die Internationalisierung der Regensburger Universität im Bereich der Forschung voranzutreiben und den an beiden Lehrstühlen bereits bestehenden Schwerpunkt im Bereich der historischen Korpuslinguistik weiter auszubauen. In Zusammenarbeit mit den französischen Kollegen, die im Bereich der Digital Humanities und der elektronisch unterstützten Korpuslinguistik bereits seit langem ausgewiesen sind, werden neuartige digitale Ressourcen bereitgestellt, die an die Regensburger Forschungen im Bereich des Textmining und des Usability Engineerings anschließen. Ziel ist es, ein Korpus aufzubauen, das durch die Kombination von Lemmatisierung, syntaktischer Annotation und diskurspragmatischen und texttypologischen Deskriptoren komplexe Abfragestrategien ermöglicht, die eine qualitativ neuartige Nutzung der Texte bei der Rekonstruktion des lateinisch-romanischen Sprachwandels garantieren.

Ansprechpartner: Prof. Christian Wolff

Impressionen vom Symposium „Visual Linguistics“

View all the data – view all the combinations – view all the angles – use all the techniques! Keep looking for any kind of pattern in the data! (Mark Richard Lauersdorf, Keynote speech at „Visual Linguistics Symposium“, November 19, 2014)

Visual Linguistics SymposiumVon 19. – 21.11.2014 fand ein Symposium auf Schloss Herrenhausen in Hannover statt, dass sich ganz dem Thema  „Visualisierung im sprachwissenschaftlichen Kontext“ widmete. Dabei wurden auch zwei Beiträge aus der Regensburger Medieninformatik vorgestellt: Thomas Wilhelm berichtete über eine Weiterentwicklung seines interaktiven Tools zu Visualisierung von Shakespeare-Dramen (mehr Informationen). Manuel Burghardt präsentierte Ergebnisse aus einer umfangreichen Evaluationsstudie zur Usability von linguistischen Annotationswerkzeugen, und ging dabei vor allem auf die Rolle von unterschiedlichen Visualisierungsmöglichkeiten ein.

Neben vielen spannenden Beiträgen von Teilnehmern aus Mannheim, Dresden, München, Moskau, Athen, und anderen Standorten, war ein besonderes Highlight die Keynote von Maximilian Schich (UT Dallas), der seinen Science-Artikel (August 2014, Vol. 345 no. 6196, pp. 558-562) „A network framework of cultural history“ vorstellte. Im Kern geht es dabei um die diachrone Visualisierung von Geburts- und Sterbeorten bekannter Persönlichkeiten.

Das vollständige Programm zu „Visual Linguistics“ finden Sie hier. Es folgt ein Überblick über einige interessante Tools und Projekte, die im Rahmen des Symposiums vorgestellt wurden:

Tools

Ressourcen

Videos / Blogs

Regensburger Beiträge auf der KONVENS 2014

Auf der diesjährigen Konvens stellen wir zwei Digital Humanities-Projekte aus Regensburg vor: Sentilyzer und WebNLP.

Sentilyzer

Sentilyzer ist ein web-basiertes Tool zur Sentimentanalyse von deutschsprachigen Nutzerkommentaren zu Facebook-Seiten. Das Tools sammelt die Kommentare über die Facebook Graph API und benutzt den TreeTagger, um die Daten zu lemmatisieren. Die so lemmatisierten Daten werden dann anhand des Sentiment-Lexikons „Berlin Affective Word List – Reloaded“ (BAWL-R) analysiert und interaktiv im Browser visualisiert. Das Tool wurde bereits erfolgreich in einer Fallstudie zur Analyse von Facebook-Kommentaren zur TV-Show „Ich bin ein Star – Holt mich hier raus“ eingesetzt.

Sentilyzer: Darstellung der Sentiment Scores zur Dschungelcamp-Kandidatin Larissa Marolt entlang der Zeitachse.

Sentilyzer: Darstellung der Sentiment Scores zur Dschungelcamp-Kandidatin “Larissa Marolt” entlang der Zeitachse.

Tool-Demo: http://dh.wappdesign.net/timeline/14
Poster als PDF via ResearchGate
Publikation: Glücker, H., Burghardt, M., & Wolff, C. (2014) Sentilyzer – A Mashup Application for the Sentiment Analysis of Facebook Pages. In Ruppenhofer, J. & Faaß, G. (eds.). Workshop proceedings of the 12th edition of the KONVENS conference, S. 58 – 61. (PDF)


WebNLP

WebNLP erlaubt es über eine Web-Schnittstelle NLP-Funktionen des Python NLTK zu nutzen, und die Ergebnisse direkt im Browser darzustellen. Die Visualisierung der Ergebnisse erfolgt durch den Web-Dienst Voyant. Zudem können die Ergebnisse zur weiteren Analyse als Text- oder XML-Datei heruntergeladen werden. WebNLP macht über seine grafische Web-Schnittstelle NLP-Funktionen für ein breiteres Publikum zugänglich, und kann somit als Beitrag in Richtung Humanist-Computer Interaction gesehen werden. In der aktuellen Fassung unterstützt WebNLP als grundlegende Funktionen Tokenisierung, POS-Tagging und Lemmatisierung für englisch-sprachige Texte. Die Architektur des Tools ist allerdings so modular angelegt, dass weitere NLP-Funktionen und weitere Sprachen sukzessive ergänzt werden können.

WebNLP

Tool-Demo: http://dh.mi.ur.de/
Poster als PDF via ResearchGate
Publikation: Burghardt, M., Pörsch, J., Tirlea, B., & Wolff, C. (2014) WebNLP – An Integrated Web-Interface for Python NLTK and Voyant. In Ruppenhofer, J. & Faaß, G. (eds.). Proceedings of the 12th edition of the KONVENS conference, S. 235 – 240. (PDF)

Virtuelle Rekonstruktion des Regensburger Ballhauses

Auf Basis historischer Beschreibungen (Hofarchiv Thurn und Taxis) erfolgte eine Rekonstruktion des (heute nicht mehr vorhandenen) Regensburger Ballhauses am Ägidienplatz. Die 3D-Rekonstruktion stellt einerseits das Innenleben des Ballhauses dar, und liefert andererseits textuelle Informationen zu interessanten Objekten. Die Rekonstruktion kann mit Hilfe der Virtual Reality-Brille Oculus Rift interaktiv exploriert werden.

3D-Modellierung und Video von Martin Dechant, Musik von Johannes Molz.

Das Projekt wurde im Rahmen eines Vortrags zum Thema „Das Jahrhundert des Dramas und der Komödien: Blüte des Regensburger Theaterlebens“ (Vortragsreihe zum 350-jährigen Reichstagsjubiläum) dem interessierten Publikum präsentiert.

Ballhaus Rekonstruktion


Weiterführende Literatur

  • Färber, S. (1936). Das Regensburger Fürstlich Thurn und Taxische Hoftheater und seine Oper 1760-1786. Sonderdruck aus den Verhandlungen des Historischen Vereins von Operpfalz und Regensburg 86. Regensburg: Friedrich Bustet Verlag.
  • Meixner, C. (2008). Musiktheater in Regensburg im Zeitalter des Immerwährenden Reichstages. Sinzig: Studio Verlag.

Publikation (Poster DHd 2015): “Virtuelle Rekonstruktion des Regensburger Ballhauses” (Download Poster + Extended Abstract)

 

Streetartfinder – Web-Anwendung zur Dokumentation und Kartierung von Streetart

Unter Streetart versteht man selbstautorisiert angebrachte Zeichen aller Art im urbanen Raum, die mit einem weiteren Personenkreis kommunizieren wollen. (Wikipedia-Definition zu Streetart)

Mit dem Streetartfinder liegt eine Web-Anwendung vor, die es ermöglicht Streetart-Bilder auf eine gemeinsame Plattform hochzuladen. Dabei werden Informationen zur Geolocation erfasst, welche es der Anwendung erlauben eine interaktive Karte der hochgeladenen Streetartbilder zu erstellen.

Streetart-Slideshow

Zusätzlich werden Informationen zum Uploader, zum Datum des Uploads sowie zur Streetart-Kategorie gespeichert. Zu diesen Kategorien gehören Graffiti, Stencil, Painting, Paste-Up, Installation und Sonstiges. Ziel ist der Aufbau einer umfangreichen digitalen Ressource zum Thema „Streetart“, welche in Folgestudien mit kunsthistorischen, soziologischen und kulturwissenschaftlichen Ansätzen näher untersucht werden können.


Webseite: http://streetartfinder.de/
Artikel bei kult: http://www.kult.de/neu-in-regensburg/kleine-kunstwerke-sichtbar-machen/150/11/1030914/
Facebook: https://www.facebook.com/streetartfinder

Publikation (Poster DHd 2015): „StreetartFinder – Eine Datenbank zur Dokumentation von Kunst im urbanen Raum“ (Download Poster + Extended Abstract)