Human Experience Design
Ziel des Forschungsbereichs Human Experience Design (HXD) ist die Sicherstellung der menschlichen Souveränität in einer zunehmend digitalisierten und automatisierten Welt. Entsprechend gestalten, evaluieren und implementieren wir technische Systeme so, dass der Mensch nicht passiver Nutzer oder bloßer Datenlieferant ist, sondern die aktive, informierte und steuernde Instanz bleibt.
Durch die Verbindung von psychologischen Erkenntnissen, didaktischen Konzepten und innovativen technologischen Entwicklungen schaffen wir Umgebungen, die menschliche Fähigkeiten erweitern.
Vor diesem Hintergrund befassen wir uns mit folgenden Aktionsfeldern:
Immersive Future
Immersive Technologien wie Virtual und Augmented Reality ermöglichen neue Formen der Visualisierung, Simulation, Kollaboration und Wissensvermittlung – insbesondere bei komplexen Fragestellungen.
In Kombination mit Künstlicher Intelligenz modellieren wir dynamische Szenarien, die als Trainings- und Experimentierräume genutzt werden können. Ziel ist es, komplexe Zusammenhänge verständlich aufzubereiten, individuelle Lernprozesse zu fördern und den Zugang zu digitalen Technologien zu erleichtern. Grundlage ist ein konsequenter Human-Centered Design Ansatz, der Nutzer*innen in alle Phasen der Entwicklung einbindet und so Akzeptanz, Nutzbarkeit und Wirksamkeit sicherstellt.
Zentrale Forschungsfragen:
- Wie können KI und immersive Medien kombiniert werden, um dynamische Szenarien zu realisieren?
- Welche Anforderungen ergeben sich an Mensch-Maschine-Schnittstellen für effektive Interaktion in KI-gestützten immersiven Systemen?
- Wie lassen sich komplexe Daten und Prozesse durch immersive Visualisierung verständlich und handlungsrelevant aufbereiten?
- Welche didaktischen Konzepte sind notwendig, um immersive Technologien nachhaltig in Bildung und Weiterbildung zu integrieren?
- Wie können Qualität, Transparenz und Vertrauen in KI-gestützten immersiven Anwendungen sichergestellt werden?
- Wie können digitale Repräsentationen realer Objekte niederschwellig und ressourceneffizient erstellt werden?
Information Security Awareness
Informationssicherheit ist nicht als rein technische Herausforderung zu verstehen, sie entsteht durch ein komplexes Zusammenspiel von Technik, Mensch und Organisation. Menschliches Handeln als relevante Komponente innerhalb dieses Systems kann sowohl zur Erhöhung als auch zur Reduzierung von Sicherheit beitragen. Entsprechend müssen Nutzer*innen, genau wie technische und organisatorische Maßnahmen, aktiv in Sicherheitskonzepte einbezogen werden.
Information Security Awareness bezeichnet das Bewusstsein, die Einstellung sowie das konkrete Verhalten von Menschen im Umgang mit Informationen, IT-Systemen und digitalen Bedrohungen.
Zentrale Forschungsfragen:
- Welche Verbindung besteht im Kontext der Information Security Awareness zwischen sicherheitsrelevantem Wissen, individueller Einstellung und tatsächlichem Sicherheitsverhalten?
- Welche Sicherheitsanforderungen ergeben sich in Organisationen und wie können diese adressiert und nachhaltig erfüllt werden?
- Welche Interventionen verbessern das Sicherheitsverhalten unterschiedlicher Zielgruppen und tragen zur langfristigen Aufrechterhaltung von Awareness bei?
- Wie lassen sich qualifikatorische und kommunikative Maßnahmen in Organisationsstrukturen und Arbeitsprozesse integrieren, um nachhaltige Effekte zur Stärkung der Information Security Awareness zu erzielen?
AI-Evaluation – Human in the Loop:
Künstliche Intelligenz (Artificial Intelligence) sollte nicht als isolierte, rein algorithmische Prozesskapazität verstanden werden. Vielmehr ist sie als integraler Bestandteil soziotechnischer Arbeits- und Lebenswelten zu betrachten. Im Fokus dieses Forschungsfeldes steht die Intelligenz des Gesamtsystems – insbesondere in ihrem Zusammenspiel mit dem Menschen. Maßgebliche Grundlagen bilden dabei kontextspezifische Anforderungen an KI-Anwendungen sowie regulatorische und ethische Leitlinien wie der AI Act der Europäischen Union und die UNESCO-Empfehlung zur Ethik der Künstlichen Intelligenz.
Zentrale Forschungsfragen:
- Wie lässt sich eine menschenzentrierte Gestaltung von KI-Systemen realisieren, die Vertrauen, Akzeptanz und ethische Integrität vereint?
- Wie müssen Erklärungsmechanismen (Explainable AI) gestaltet sein, damit sowohl Laien als auch Expert*innen die Entscheidungsgrundlagen eines KI-Systems nachvollziehen können?
- Welche Faktoren jenseits der technischen Genauigkeit bestimmen die langfristige Akzeptanz und wahrgenommene Nützlichkeit von KI-Anwendungen in spezifischen Kontexten?
- Durch welche Gestaltungskriterien lässt sich das Risiko von algorithmischem Bias in Entscheidungsprozessen effektiv minimieren?
Welche Auswirkung hat die langfristige Nutzung von KI-Anwendungen auf individuelle Kompetenzen?