Der Skandinavist Timothy R. Tangherlin, der an der University of California lehrt, hat zusammen mit seinem Kollegen Peter Broadwell anhand von 30.000 Geschichten und geographischen Indizes eine geo-semantische Karte von Dänemark erstellt, auf der Hotspots für Hexengeschichten verzeichnet sind. Mithilfe künstlicher Intelligenz fanden sie heraus, dass Hexerei häufig in der Nähe von Klöstern stattfand, was nicht verwundert, weil der Katholizismus nach der Reformation und den Religionskriegen im protestantischen Dänemark verteufelt wurde.

Computerwissenschafter der Universitäten Maryland und Colorado haben mithilfe eines neuronalen Netzwerks das dynamische Beziehungsgeflecht zwischen Lucy und Arthur in Bram Stokers Roman "Dracula" anhand bestimmter Ereignisse dekonstruiert - was zeigt, dass literarische Werke auch mit Computermodellen analysiert werden können.

Nobelpreis wohl in weiter Ferne


Wenn Algorithmen den Erfolg von Büchern vorhersagen und narrative Muster erkennen können, können sie dann irgendwann auch Werke nach bestimmten, computertechnisch formalisierbaren Gütekriterien wie die Stringenz der Handlungsstränge oder die Plastizität der Figuren bewerten? Oder ist Literaturkritik eine genuine Kompetenz des Menschen? Bis der erste Literaturautomat einen Nobelpreis erhält und Computer Werke von Maschinen besprechen, wird es wohl noch eine Weile dauern. Doch Algorithmen kennen unsere literarischen Vorlieben schon heute besser als wir selbst. Und vielleicht auch, was gute Literatur ist.