Kategorie: Natural Language Processing

MuC 2017: User Experience Mining auf Basis von Online-Produktbewertungen

Im September wurde vom Lehrstuhl für Medieninformatik in Regensburg erstmals die Mensch und Computer 2017 unter dem Motto „Spielend einfach interagieren“ mit ca. 700 Teilnehmern organisiert. Alle Einzelbeiträge finden sich in der Digital Library der GI.

Dabei wurde auch ein eigener Beitrag im Schnittfeld von User Experience-Evaluation und Text Mining bzw. Sentiment Analysis vorgestellt, der damit methodisch durchaus auch Anküpfungspunkte für die Digital Humanities bietet:

  • Lechler, D. & Burghardt, M., (2017). User Experience Mining auf Basis von Online-Produktbewertungen. In: Burghardt, M., Wimmer, R., Wolff, C. & Womser-Hacker, C. (Hrsg.), Mensch und Computer 2017 – Tagungsband. Regensburg: Gesellschaft für Informatik e.V.. (S. 49-60). (PDF)

Zusammenfassung

Der Beitrag untersucht die Grenzen und Möglichkeiten einer automatischen Erfassung der User Experience (UX) von Produkten durch die Analyse von Online-Reviews. Hierzu wurde ein Tool entwickelt, das online verfügbare Produktbewertungen sammelt und mittels Methoden des Natural Language Processing sowie der Sentiment-Analyse aufbereitet um die Ergebnisse auf die Werteskalen des User Experience Questionnaire (UEQ) abzubilden. Weiterhin präsentieren wir eine Evaluation des so erstellten Tools, indem wir die automatisch generierten Ergebnisse mit den Ergebnissen einer klassischen Benutzerstudie vergleichen. Es zeigt sich, dass automatisch erstellte UX-Analysen aus Online-Reviews zumindest eine grobe Annäherung zur UX eines Produkts zulassen – wenn auch nicht so differenziert wie ein von echten Anwendern, vollständig ausgefüllter UEQ.

Advertisements

DH-Projektstelle in Regensburg zu besetzen

Für das DFG-Projekt „PaLaFra“ ist ab April 2015 eine Stelle im Bereich Computerlinguistik / Informatik zu besetzen.

Sie unterstützen eine interdisziplinäre Forschungsgruppe aus Romanisten, Korpus- und Computerlinguisten bei der Erforschung des Übergangs vom Latein zum Altfranzösischen. Typische Aufgaben umfassen die automatische Satzsegmentierung, Tokenisierung, Lemmatisierung, morpho-syntaktische und syntaktische Annotation sowie die Alignierung unterschiedlicher Texte als Parallelkorpus. Auf Basis dieser Vorverarbeitungsschritte sollen Heuristiken entworfen werden, die es erlauben, mithilfe von maschinellen Lernverfahren Annotationsvorschläge für eine weiterreichende, diskurspragmatische Annotation zu entwickeln. Schließlich soll das annotierte Korpus unter Berücksichtigung bestehender Analyse-Tools, wie etwa der TXM-Plattform, ausgewertet werden, und über eine Weboberfläche verfügbar gemacht werden. Die Projektstelle bietet die Möglichkeit einer wissenschaftlichen Weiterqualifikation im Rahmen einer Promotion.

Weitere Details zur Stellenausschreibung finden Sie hier.

Deutsch-französische Kooperation im Bereich der Digital Humanities: PaLaFra

Die drei Regensburger Wissenschaftler, Prof. Maria Selig, Dr. Rembert Eufe (beide Institut für Romanistik) und Prof. Christian Wolff (Institut für Information und Medien, Sprache und Kultur) haben gemeinsam mit französischen Kolleginnen und Kollegen von der École Normale Supérieure in Lyon und der Universität Lille einen Erfolg bei der Deutschen Forschungsgemeinschaft und der Agence Nationale de Recherche errungen. Ihr gemeinsames Projekt PaLaFra (Le passage du latin au français) bereitet die Publikation eines im Netz frei konsultierbaren Korpus von spätlateinischen und altfranzösischen Texten vor und wird mit einem Finanzvolumen von etwa 750 000 Euro (Laufzeit 36 Monate) gefördert. Die Vorbereitung dieser deutsch-französischen Kooperation wurde vom Bayerisch-Französischen Hochschulzentrum (BFHZ) unterstützt. Die Projektarbeit soll im April 2015 starten.

Die Kooperation wird dazu beitragen, die Internationalisierung der Regensburger Universität im Bereich der Forschung voranzutreiben und den an beiden Lehrstühlen bereits bestehenden Schwerpunkt im Bereich der historischen Korpuslinguistik weiter auszubauen. In Zusammenarbeit mit den französischen Kollegen, die im Bereich der Digital Humanities und der elektronisch unterstützten Korpuslinguistik bereits seit langem ausgewiesen sind, werden neuartige digitale Ressourcen bereitgestellt, die an die Regensburger Forschungen im Bereich des Textmining und des Usability Engineerings anschließen. Ziel ist es, ein Korpus aufzubauen, das durch die Kombination von Lemmatisierung, syntaktischer Annotation und diskurspragmatischen und texttypologischen Deskriptoren komplexe Abfragestrategien ermöglicht, die eine qualitativ neuartige Nutzung der Texte bei der Rekonstruktion des lateinisch-romanischen Sprachwandels garantieren.

Ansprechpartner: Prof. Christian Wolff

Regensburger Beiträge auf der KONVENS 2014

Auf der diesjährigen Konvens stellen wir zwei Digital Humanities-Projekte aus Regensburg vor: Sentilyzer und WebNLP.

Sentilyzer

Sentilyzer ist ein web-basiertes Tool zur Sentimentanalyse von deutschsprachigen Nutzerkommentaren zu Facebook-Seiten. Das Tools sammelt die Kommentare über die Facebook Graph API und benutzt den TreeTagger, um die Daten zu lemmatisieren. Die so lemmatisierten Daten werden dann anhand des Sentiment-Lexikons „Berlin Affective Word List – Reloaded“ (BAWL-R) analysiert und interaktiv im Browser visualisiert. Das Tool wurde bereits erfolgreich in einer Fallstudie zur Analyse von Facebook-Kommentaren zur TV-Show „Ich bin ein Star – Holt mich hier raus“ eingesetzt.

Sentilyzer: Darstellung der Sentiment Scores zur Dschungelcamp-Kandidatin Larissa Marolt entlang der Zeitachse.

Sentilyzer: Darstellung der Sentiment Scores zur Dschungelcamp-Kandidatin “Larissa Marolt” entlang der Zeitachse.

Tool-Demo: http://dh.wappdesign.net/timeline/14
Poster als PDF via ResearchGate
Publikation: Glücker, H., Burghardt, M., & Wolff, C. (2014) Sentilyzer – A Mashup Application for the Sentiment Analysis of Facebook Pages. In Ruppenhofer, J. & Faaß, G. (eds.). Workshop proceedings of the 12th edition of the KONVENS conference, S. 58 – 61. (PDF)


WebNLP

WebNLP erlaubt es über eine Web-Schnittstelle NLP-Funktionen des Python NLTK zu nutzen, und die Ergebnisse direkt im Browser darzustellen. Die Visualisierung der Ergebnisse erfolgt durch den Web-Dienst Voyant. Zudem können die Ergebnisse zur weiteren Analyse als Text- oder XML-Datei heruntergeladen werden. WebNLP macht über seine grafische Web-Schnittstelle NLP-Funktionen für ein breiteres Publikum zugänglich, und kann somit als Beitrag in Richtung Humanist-Computer Interaction gesehen werden. In der aktuellen Fassung unterstützt WebNLP als grundlegende Funktionen Tokenisierung, POS-Tagging und Lemmatisierung für englisch-sprachige Texte. Die Architektur des Tools ist allerdings so modular angelegt, dass weitere NLP-Funktionen und weitere Sprachen sukzessive ergänzt werden können.

WebNLP

Tool-Demo: http://dh.mi.ur.de/
Poster als PDF via ResearchGate
Publikation: Burghardt, M., Pörsch, J., Tirlea, B., & Wolff, C. (2014) WebNLP – An Integrated Web-Interface for Python NLTK and Voyant. In Ruppenhofer, J. & Faaß, G. (eds.). Proceedings of the 12th edition of the KONVENS conference, S. 235 – 240. (PDF)