<?xml version="1.0" encoding="UTF-8"?>
<collection xmlns="http://www.loc.gov/MARC21/slim">
<record>
  <controlfield tag="001">1020690</controlfield>
  <controlfield tag="005">20251128132017.0</controlfield>
  <datafield tag="591" ind1=" " ind2=" ">
    <subfield code="a">Germany</subfield>
  </datafield>
  <datafield tag="980" ind1="1" ind2=" ">
    <subfield code="a">FullTexts</subfield>
  </datafield>
  <datafield tag="980" ind1=" " ind2=" ">
    <subfield code="a">I:(DE-82)735410_20230123</subfield>
  </datafield>
  <datafield tag="980" ind1=" " ind2=" ">
    <subfield code="a">UNRESTRICTED</subfield>
  </datafield>
  <datafield tag="980" ind1=" " ind2=" ">
    <subfield code="a">VDB</subfield>
  </datafield>
  <datafield tag="980" ind1=" " ind2=" ">
    <subfield code="a">phd</subfield>
  </datafield>
  <datafield tag="336" ind1="7" ind2=" ">
    <subfield code="0">2</subfield>
    <subfield code="2">EndNote</subfield>
    <subfield code="a">Thesis</subfield>
  </datafield>
  <datafield tag="336" ind1="7" ind2=" ">
    <subfield code="0">PUB:(DE-HGF)11</subfield>
    <subfield code="2">PUB:(DE-HGF)</subfield>
    <subfield code="a">Dissertation / PhD Thesis</subfield>
    <subfield code="b">phd</subfield>
    <subfield code="m">phd</subfield>
  </datafield>
  <datafield tag="336" ind1="7" ind2=" ">
    <subfield code="2">BibTeX</subfield>
    <subfield code="a">PHDTHESIS</subfield>
  </datafield>
  <datafield tag="336" ind1="7" ind2=" ">
    <subfield code="2">DRIVER</subfield>
    <subfield code="a">doctoralThesis</subfield>
  </datafield>
  <datafield tag="336" ind1="7" ind2=" ">
    <subfield code="2">DataCite</subfield>
    <subfield code="a">Output Types/Dissertation</subfield>
  </datafield>
  <datafield tag="336" ind1="7" ind2=" ">
    <subfield code="2">ORCID</subfield>
    <subfield code="a">DISSERTATION</subfield>
  </datafield>
  <datafield tag="700" ind1="1" ind2=" ">
    <subfield code="0">P:(DE-82)IDM01328</subfield>
    <subfield code="a">Isenhardt, Ingrid</subfield>
    <subfield code="b">1</subfield>
    <subfield code="e">Thesis advisor</subfield>
    <subfield code="u">rwth</subfield>
  </datafield>
  <datafield tag="700" ind1="1" ind2=" ">
    <subfield code="0">P:(DE-82)IDM00463</subfield>
    <subfield code="a">Ziefle, Martina</subfield>
    <subfield code="b">2</subfield>
    <subfield code="e">Thesis advisor</subfield>
    <subfield code="u">rwth</subfield>
  </datafield>
  <datafield tag="037" ind1=" " ind2=" ">
    <subfield code="a">RWTH-2025-09177</subfield>
  </datafield>
  <datafield tag="856" ind1="4" ind2=" ">
    <subfield code="u">http://publications.rwth-aachen.de/record/1020690/files/1020690.pdf</subfield>
    <subfield code="y">OpenAccess</subfield>
  </datafield>
  <datafield tag="856" ind1="4" ind2=" ">
    <subfield code="u">http://publications.rwth-aachen.de/record/1020690/files/1020690_source.doc</subfield>
    <subfield code="y">Restricted</subfield>
  </datafield>
  <datafield tag="856" ind1="4" ind2=" ">
    <subfield code="u">http://publications.rwth-aachen.de/record/1020690/files/1020690_source.docx</subfield>
    <subfield code="y">Restricted</subfield>
  </datafield>
  <datafield tag="856" ind1="4" ind2=" ">
    <subfield code="u">http://publications.rwth-aachen.de/record/1020690/files/1020690_source.odt</subfield>
    <subfield code="y">Restricted</subfield>
  </datafield>
  <datafield tag="520" ind1="3" ind2=" ">
    <subfield code="a">Trotz der zunehmenden Zahl an Unterstützungssystemen mit künstlicher Intelligenz (KI) für den Privatgebrauch wurde KI-Transparenz lange Zeit vor allem aus technischer Perspektive erforscht. Studienergebnisse mit Endnutzenden zeigen jedoch, dass Systemtransparenz nicht automatisch zu Systemakzeptanz führt. Es stellt sich also die Frage, wie sich Transparenz von KI- Entscheidungsunterstützungssystemen auf die Nutzung dieser Systeme durch Endnutzende auswirkt. Im Rahmen der vorliegenden Dissertation wurde diese Forschungsfrage anhand von drei Studien mit einem Mixed Method-Ansatz untersucht. Die erste Studie, ein quantitatives Onlineexperiment mit n = 169 Teilnehmenden, analysierte, wie Akkuratheitsangaben die Nutzung eines Algorithmus nach einem Fehler beeinflussen. Die zweite Studie, qualitative Fokusgruppendiskussionen mit n = 26 Teilnehmenden, identifizierte Anforderungen an KI-Transparenz aus Sicht von Endnutzenden. Die dritte Studie, ein quantitatives Onlineexperiment mit n = 151 Teilnehmenden, verglich vier Transparenzarten hinsichtlich ihrer Wirkung auf Vertrauen und Nutzung der Algorithmen. Die Ergebnisse zeigen, dass technische Erklärungen allein nicht ausreichen, um das Vertrauen in KI-Systeme zu stärken oder deren Nutzung zu fördern. Mehr als Erklärungen, wie eine KI funktioniert, sind Hintergrundinformationen über Entwickler*innen, die Motive von hinter der KI stehenden Institutionen oder externe Prüfungen entscheidend für die Vertrauensbildung. Akkuratheitsangaben haben einen begrenzten positiven Effekt auf die Nutzung, während Erklärungen, warum ein einzelnes Ergebnis zustande kam, besonders bei Fehlern gewünscht werden. Die Anforderungen sind abhängig von den Eigenschaften eines Systems, insbesondere davon, wie schwerwiegend Fehler wären, und von den Vorerfahrungen der Nutzenden. Wichtiger als eine detaillierte Transparenz ist es, das Verständnis der Nutzenden der Transparenzmaßnahmen sicherzustellen und Verlässlichkeit der KI zu vermitteln. Die Arbeit betont die Bedeutung einer nutzendenzentrierten Entwicklung von KI-Transparenz, um der Individualität von Systemen und Nutzendengruppen gerecht zu werden. Neben weiteren Implikationen wurde eine Transparenzmatrix für Entwickler*innen ausgearbeitet, mit der sich die notwendigen Transparenzimplikationen auf Basis gegebener Systemeigenschaften identifizieren lassen. Auch für politische Entscheidungsträger*innen ergeben sich Implikationen zur Förderung der Transparenz in KI-Systemen. Darüber hinaus werden die Limitationen der Einzelstudien sowie der Gesamtarbeit diskutiert und weiterführende Fragen für zukünftige Forschung abgeleitet.</subfield>
    <subfield code="l">ger</subfield>
  </datafield>
  <datafield tag="520" ind1=" " ind2=" ">
    <subfield code="a">Despite the increasing number of artificial intelligence (AI) systems for private usage, AI transparency has long been researched primarily from a technical perspective. However, study results with end users show that system transparency does not automatically lead to system acceptance. Therefore, the question arises of how transparency of AI decision support systems affects the use of these systems by end users. In this dissertation, this research question was investigated using three studies with a mixed-method approach. The first study, a quantitative online experiment with n = 169 participants, analyzed how accuracy information about an algorithm influences the use of this algorithm after an error. The second study, qualitative focus group discussions with n = 26 participants, identified requirements for AI transparency from the perspective of end users. The third study, a quantitative online experiment with n = 151 participants, compared four different types of transparency regarding their effect on trust and use of the respective algorithms. The results show that technical explanations alone are not sufficient to strengthen trust in AI systems or increase their usage. More than explanations of how an AI works, background information about developers, the motives of the institutions behind the AI or external audits help to build trust. Accuracy information has a limited positive effect on usage, while explanations about why a single result emerged are desirable when errors occur. The requirements towards AI transparency depend on the characteristics of the system, in particular how severe errors would be, and users' previous experience. More important than detailed transparency is ensuring that users understand the transparency measures and conveying the reliability of the AI-system. The work emphasizes the importance of a user-centered development of AI transparency due to the individuality of systems and user groups. In addition to further implications, a transparency matrix for developers was elaborated, which can be used to identify the necessary transparency implications based on given system characteristics. Implications also arise for political decision-makers to promote transparency in AI systems. In addition, limitations of the individual studies and the overall work are discussed and follow-up questions for further research are derived.</subfield>
    <subfield code="l">eng</subfield>
  </datafield>
  <datafield tag="653" ind1=" " ind2="7">
    <subfield code="a">AI usage</subfield>
  </datafield>
  <datafield tag="653" ind1=" " ind2="7">
    <subfield code="a">Nutzeranforderungen</subfield>
  </datafield>
  <datafield tag="653" ind1=" " ind2="7">
    <subfield code="a">Technologieakzeptanz</subfield>
  </datafield>
  <datafield tag="653" ind1=" " ind2="7">
    <subfield code="a">Transparenz</subfield>
  </datafield>
  <datafield tag="653" ind1=" " ind2="7">
    <subfield code="a">algorithm aversion</subfield>
  </datafield>
  <datafield tag="653" ind1=" " ind2="7">
    <subfield code="a">artificial intelligence</subfield>
  </datafield>
  <datafield tag="653" ind1=" " ind2="7">
    <subfield code="a">human centered AI</subfield>
  </datafield>
  <datafield tag="653" ind1=" " ind2="7">
    <subfield code="a">künstliche Intelligenz</subfield>
  </datafield>
  <datafield tag="653" ind1=" " ind2="7">
    <subfield code="a">menschzentrierte KI</subfield>
  </datafield>
  <datafield tag="653" ind1=" " ind2="7">
    <subfield code="a">transparency</subfield>
  </datafield>
  <datafield tag="653" ind1=" " ind2="7">
    <subfield code="a">trust</subfield>
  </datafield>
  <datafield tag="653" ind1=" " ind2="7">
    <subfield code="a">user demands</subfield>
  </datafield>
  <datafield tag="915" ind1=" " ind2=" ">
    <subfield code="0">StatID:(DE-HGF)0510</subfield>
    <subfield code="2">StatID</subfield>
    <subfield code="a">OpenAccess</subfield>
  </datafield>
  <datafield tag="914" ind1="1" ind2=" ">
    <subfield code="y">2025</subfield>
  </datafield>
  <datafield tag="502" ind1=" " ind2=" ">
    <subfield code="a">Dissertation, Rheinisch-Westfälische Technische Hochschule Aachen, 2025</subfield>
    <subfield code="b">Dissertation</subfield>
    <subfield code="c">Rheinisch-Westfälische Technische Hochschule Aachen</subfield>
    <subfield code="d">2025</subfield>
    <subfield code="g">Fak07</subfield>
    <subfield code="o">2025-04-01</subfield>
  </datafield>
  <datafield tag="910" ind1="1" ind2=" ">
    <subfield code="0">I:(DE-588b)36225-6</subfield>
    <subfield code="6">P:(DE-82)IDM03292</subfield>
    <subfield code="a">RWTH Aachen</subfield>
    <subfield code="b">0</subfield>
    <subfield code="k">RWTH</subfield>
  </datafield>
  <datafield tag="910" ind1="1" ind2=" ">
    <subfield code="0">I:(DE-588b)36225-6</subfield>
    <subfield code="6">P:(DE-82)IDM01328</subfield>
    <subfield code="a">RWTH Aachen</subfield>
    <subfield code="b">1</subfield>
    <subfield code="k">RWTH</subfield>
  </datafield>
  <datafield tag="910" ind1="1" ind2=" ">
    <subfield code="0">I:(DE-588b)36225-6</subfield>
    <subfield code="6">P:(DE-82)IDM00463</subfield>
    <subfield code="a">RWTH Aachen</subfield>
    <subfield code="b">2</subfield>
    <subfield code="k">RWTH</subfield>
  </datafield>
  <datafield tag="500" ind1=" " ind2=" ">
    <subfield code="a">Veröffentlicht auf dem Publikationsserver der RWTH Aachen University</subfield>
  </datafield>
  <datafield tag="300" ind1=" " ind2=" ">
    <subfield code="a">1 Online-Ressource : Illustrationen</subfield>
  </datafield>
  <datafield tag="082" ind1=" " ind2=" ">
    <subfield code="a">300</subfield>
  </datafield>
  <datafield tag="588" ind1=" " ind2=" ">
    <subfield code="a">Dataset connected to Lobid/HBZ</subfield>
  </datafield>
  <datafield tag="245" ind1=" " ind2=" ">
    <subfield code="a">Künstliche Intelligenz erklären, verstehen, nutzen : Anforderungen an Transparenz und ihr Einfluss auf die Nutzung von KI-Entscheidungsunterstützungssystemen</subfield>
    <subfield code="c">vorgelegt von Johanna Miriam Werz</subfield>
    <subfield code="h">online</subfield>
  </datafield>
  <datafield tag="024" ind1="7" ind2=" ">
    <subfield code="2">HBZ</subfield>
    <subfield code="a">HT031315345</subfield>
  </datafield>
  <datafield tag="024" ind1="7" ind2=" ">
    <subfield code="2">Laufende Nummer</subfield>
    <subfield code="a">44769</subfield>
  </datafield>
  <datafield tag="024" ind1="7" ind2=" ">
    <subfield code="2">datacite_doi</subfield>
    <subfield code="a">10.18154/RWTH-2025-09177</subfield>
  </datafield>
  <datafield tag="260" ind1=" " ind2=" ">
    <subfield code="a">Aachen</subfield>
    <subfield code="b">RWTH Aachen University</subfield>
    <subfield code="c">2025</subfield>
  </datafield>
  <datafield tag="100" ind1="1" ind2=" ">
    <subfield code="0">P:(DE-82)IDM03292</subfield>
    <subfield code="a">Werz, Johanna Miriam</subfield>
    <subfield code="b">0</subfield>
    <subfield code="u">rwth</subfield>
  </datafield>
  <datafield tag="041" ind1=" " ind2=" ">
    <subfield code="a">German</subfield>
  </datafield>
  <datafield tag="909" ind1="C" ind2="O">
    <subfield code="o">oai:publications.rwth-aachen.de:1020690</subfield>
    <subfield code="p">openaire</subfield>
    <subfield code="p">open_access</subfield>
    <subfield code="p">driver</subfield>
    <subfield code="p">VDB</subfield>
    <subfield code="p">ec_fundedresources</subfield>
    <subfield code="p">dnbdelivery</subfield>
  </datafield>
  <datafield tag="536" ind1=" " ind2=" ">
    <subfield code="0">G:(EU-Grant)101069499</subfield>
    <subfield code="a">FAIRWork - Flexibilization of complex Ecosystems using Democratic AI based Decision Support and Recommendation Systems at Work (101069499)</subfield>
    <subfield code="c">101069499</subfield>
    <subfield code="f">HORIZON-CL4-2021-DIGITAL-EMERGING-01</subfield>
    <subfield code="x">0</subfield>
  </datafield>
  <datafield tag="536" ind1=" " ind2=" ">
    <subfield code="0">G:(DE-82)EXS-SF-OPSF654</subfield>
    <subfield code="a">OPSF654 - Transparency in Artificial Intelligence: Considering Explainability, User and System Factors (TAIGERS) (EXS-SF-OPSF654)</subfield>
    <subfield code="c">EXS-SF-OPSF654</subfield>
    <subfield code="x">1</subfield>
  </datafield>
  <datafield tag="536" ind1=" " ind2=" ">
    <subfield code="0">G:(DE-82)EXS-SF</subfield>
    <subfield code="a">Exploratory Research Space: Seed Fund (2) als Anschubfinanzierung zur Erforschung neuer interdisziplinärer Ideen (EXS-SF)</subfield>
    <subfield code="c">EXS-SF</subfield>
    <subfield code="x">2</subfield>
  </datafield>
  <datafield tag="536" ind1=" " ind2=" ">
    <subfield code="0">G:(DE-82)EXS</subfield>
    <subfield code="a">Excellence Strategy (EXS)</subfield>
    <subfield code="c">EXS-SF</subfield>
    <subfield code="x">3</subfield>
  </datafield>
  <datafield tag="246" ind1=" " ind2="3">
    <subfield code="a">Explaining, understanding, using artificial intelligence : requirements for transparency and its influence on the use of AI decision support systems</subfield>
    <subfield code="y">English</subfield>
  </datafield>
  <datafield tag="920" ind1="1" ind2=" ">
    <subfield code="0">I:(DE-82)735410_20230123</subfield>
    <subfield code="k">735410</subfield>
    <subfield code="l">Lehrstuhl für Kommunikationswissenschaft</subfield>
    <subfield code="x">0</subfield>
  </datafield>
</record>
</collection>