Die Forschung von Ute Schmid könnte helfen, das es erst gar nicht so weit kommt. „Davon können vor allem unstrukturierte Menschen profitieren, die nicht so organisiert sind“, sagt die 54-Jährige. Dabei solle nichts heimlich verschwinden, denn gerade transparentes und nachvollziehbares Löschen sei wichtig. Nur wenn Personen sich bewusst mit der Entscheidung auseinandersetzen würden, könnten Arbeitsleistung und Beanspruchung positiv beeinflusst werden.
So schlägt „Dare2Del“ dem Nutzer beim Schließen eines Programms fünf Dateien vor, die er löschen könnte. Wer auf eine der Dateien klickt, bekommt den zugehörigen Ordner angezeigt. Das System liefert dann auch noch eine Begründung, warum das Dokument getrost in den Papierkorb wandern kann. Weil es zum Beispiel schon eine Kopie in einem anderen Ordner gibt oder es sich um eine veraltete Version handelt. Am Ende entscheidet der Nutzer, ob er die Datei löschen möchte oder nicht.
Brose ruft regelmäßig zum Löschen auf
Der Nutzer kann auch die Begründung für das Löschen ändern. „Künstliche Intelligenz soll genauso vom Menschen lernen wie umgekehrt“, sagt Schmid, die von einer „Mensch-Maschine-Partnerschaft“ spricht. Er kann dem System also beispielsweise erklären, dass er Fotos von der verstorbenen Oma nie löschen möchte. Eine Firma könnte wiederum einstellen, dass Nutzerdaten grundsätzlich nach sechs Monaten gelöscht werden müssen. Speicherplatz koste die Industrie nämlich viel Strom und Geld, so Schmid.
Unternehmen wie der Autozulieferer Brose rufen ihre Mitarbeiter deshalb dazu auf, regelmäßig Daten zu löschen. So seien immerhin schon 50 Terabyte Speicherplatz freigeworden, sagt Frank Martin, Leiter der Informationstechnologie bei Brose. Rund 180.000 Euro hat das Unternehmen nach Information des Forschungsteams auf diese Weise gespart. „Das Löschen von Hand ist aufwendig und nicht mehr zeitgemäß“, so Martin. „Dare2Del“ könnte die Lösung sein, auch für die Energiebilanz.
Doch erstmal läuft die Forschung noch drei Jahre. So lange ist das Programm „Intentional Forgetting in Organisationen“ der Deutschen Forschungsgemeinschaft (DFG) angesetzt. Acht interdisziplinäre Expertenteams forschen dabei zum Vergessen, darunter Ute Schmid mit ihrer Kollegin Cornelia Niessen vom Lehrstuhl für Psychologie im Arbeitsleben an der Friedrich-Alexander Universität Erlangen-Nürnberg.
Sie wollen testen, wie sehr Menschen den Löschvorschlägen der Künstlichen Intelligenz vertrauen. Auch das Benutzerdesign ist noch völlig offen. „Dare2Del“ könnte in Form einer Büroklammer auftauchen wie früher der Assistent bei Microsoft Office, als Plug-In oder als eigenes Programm. Gerade würden sie vor allem an der Erklärbarkeit und dem interaktiven Lernen tüfteln, erzählt Ute Schmid. Denn auch Künstliche Intelligenz müsse erstmal lernen zu löschen.