Neuste Beiträge
25.01.2024
📢 Rückblick auf „BreAkIng Bad – Hacking the AI Act“, Abschlusssitzung: Vorstellung der Ergebnisse
In unserer letzten Seminarsitzung wurde es ernst: Nachdem die Studierenden über das Semester hinweg den aktuellen Entwurf des AI-Acts kennengelernt und dank unserer Gastlehrenden sowohl einen juristischen als auch einen ethischen Blick auf diesen erhalten hatten, konnten sie das von iDIGMA erlernte Beratungs-Handwerkszeug nutzen, um sich ihren Use Cases zu widmen und ihr Umsetzungskonzept zu erarbeiten. Eine Herausforderung, der sie sich mit großem Engagement gestellt haben.
Die erste Gruppe hat sich mit einem KI-System zur Unterstützung einer Justizbehörde beschäftigt. Zwei zentrale KI-Anwendungen standen im Mittelpunkt des Projekts: Ein Texterfassungs- und Recherchetool sowie ein Vertragsanalyse-Tool. Die vorgestellten Anwendungen zeigten nicht nur das Potenzial zur Effizienzsteigerung, sondern warfen auch wichtige ethische Fragen auf. Die Studierenden betonten die besondere Notwendigkeit von umfassendem Risikomanagement, Datenschutz- und Daten-Governance-Maßnahmen sowie transparenter Kommunikation mit den Bürger:innen, um die erfolgreiche Integration der KI-Systeme in die Justizbehörde zu gewährleisten. KI darf nicht das Vertrauen in die Justiz gefährden oder Verzerrungen und Diskriminierungen weiter festigen oder gar befördern.
Die zweite Gruppe der Studierenden widmete sich der Thematik der künstlichen Intelligenz in der Wahlwerbung. Es wurden verschiedene Umsetzungsformen für KI in der Wahlwerbung präsentiert. Hierzu gehörte unter anderem die Nutzung von Bots, maßgeschneiderter Werbung sowie die Verwendung von generativer KI zur Erzeugung von Texten, Grafiken, Videos und Tonaufnahmen. Die Studierenden analysierten dabei ausführlich die potenziellen Risiken und ethischen Herausforderungen. In diesem Zusammenhang legten sie einen besonderen Fokus auf die Notwendigkeit von Transparenz, Beteiligung und Regulierung, um sicherzustellen, dass der Einsatz von KI in der Wahlwerbung sowohl erklärbar als auch ethisch verantwortlich gestaltet wird. Sie schlugen vor, dass die Anwendung von KI in der politischen Werbung nicht nur von bestimmten Gruppen oder Unternehmen gesteuert wird, sondern auch von der Öffentlichkeit und relevanten politischen Institutionen beeinflusst und überwacht wird.
Zum Abschluss präsentierte die letzte Gruppe ihr Beratungskonzept für ein KI-gestütztes Videoüberwachungssystem in einem Einkaufszentrum. Die Studierenden haben die wirtschaftliche, ethische und vermittelnde Perspektive der KI-Ausgestaltung untersucht. Die ethische Bewertung legte den Fokus auf die Verhältnismäßigkeit des KI-Systems und betonte potenzielle Risiken wie die Diskriminierung gewisser Gruppen und die Möglichkeit eines „Chilling Effektes“, bei dem die kontinuierliche Überwachung möglicherweise Kund:innen daran hindert, sich normal zu verhalten – und sie gegebenenfalls schlussendlich aus dem Einkaufszentrum vertreiben könnte. Die Gruppe hat wichtige Maßnahmen vorgeschlagen, darunter den Aufbau eines Governance-Frameworks für KI, Anpassungen von Organisationsstrukturen und die Überprüfung von Werkzeugen und Technologien. Aus dem für den konkreten KI-Anwendungsfall erarbeiteten Vorgehen haben die Studierenden zudem eine Checkliste für den Umgang mit zukünftigen KI-Anwendungsfällen abgeleitet.
Alles in allem zeigte sich, dass die Lernenden ein sehr gutes grundlegendes Verständnis der Kerninhalte, insb. des AI Acts, der Grundlagen digitaler Ethik und des digitalen Rechts sowie der Kompetenzen in Digitalberatung, erlangt haben und hoffentlich als Multiplikator:innen weiter in die Welt tragen werden. Diese Sitzung stellte somit einen würdigen Abschluss eines spannenden und lehrreichen Semesters dar. Wir möchten an dieser Stelle noch einmal dem iDIGMA-Team vertreten durch Frank Pörschmann und Dr. Christiana Klingenberg, den weiteren Gastreferentinnen Dr. Simone Kuhlmann und Catharina Rudschies für die wertvollen Beiträge und natürlich besonders unseren Studierenden für das große Interesse an und die tiefe Einarbeit in das Thema danken! Unser Dank gilt zudem Prof. Dr. Ingrid Schirmer für die Unterstützung in der Konzeption des Formats sowie den wissenschaftlichen Hilfskräften Sandra Timmermann, Nina Scheller und Philip Heider für die Unterstützung in der Vorbereitung und Durchführung der Veranstaltung.
#BreAkIngBad #Risikomanagement #KünstlicheIntelligenz #DigitaleVerantwortung #EUAIAct #SeminarUpdate #iDIGMAGmbH #EthicalHacking #UHH #großesFinale
07.12.2023
📢 Rückblick auf „BreAkIng Bad – Hacking the AI Act“, fünfte Sitzung: Einblicke in die dunkle Seite des Risikomanagements mit unseren Experten von iDIGMA
In unserer neuesten Sitzung des Seminars „BreAkIng Bad – Hacking the AI Act“ hatten wir erneut das Vergnügen, Frank Pörschmann und Dr. Christiana Klingenberg von iDIGMA zu begrüßen. Diesmal stand das Thema Risikomanagement im Mittelpunkt, mit einem besonderen Schwerpunkt auf unethischen Unternehmenspraktiken.
Die iDIGMA-Experten warfen Schlüsselfragen auf, die für den Seminar-Kontext von großer Bedeutung sind, z.B. „Wie geschehen große Betrugsfälle?“ und „Wie könnte man eine Unternehmensberatung absichtlich für Betrugszwecke einsetzen?“ Diese Fragen wurden im Verlauf der Sitzung am Beispiel realer Skandale wie Diesel-Gate, Enron, Cambridge Analytica und dem Cum-Ex-Skandal beleuchtet und in spannenden Diskussionen mit den Studierenden über ihre individuellen KI-Anwendungsfälle vertieft.
Die vorgestellten Strategien der „bad guys“ umfassten:
- Gezielte Verteilung der problematischen Funktionalitäten von KI-Systemen auf scheinbar harmlose Teilsysteme, für die unabhängig voneinander Zertifikate eingeholt werden.
- Taktische Einbindung von Zertifizierungsstellen zur Ausnutzung behördlicher Prozesse.
- Vorbereitung von PR-Strategien für schnelles Reagieren auf ethisch fragwürdige Enthüllungen.
Die Studierenden nutzten außerdem die Gelegenheit, ihre bisherige Arbeit zu Risikoklassifizierungen und mögliche Risikominimierungsstrategien für ihre KI-Anwendungsfälle zu präsentieren. Unter anderem wurden Reputations- und ein Rechtsrisiken bei der KI-gestützten Kameraüberwachung eines Einkaufszentrums hervorgehoben, ein politisches Risiko bei der Wahlmanipulation mithilfe generativer KI und finanzielle, rechtliche und politische Risiken bei KI-Verwendungen in einer Justizbehörde. Die Experten von iDIGMA gaben jeder Gruppe wertvolles Feedback und regten die Studierenden zu weiterführenden Überlegungen an. Für vertiefende Recherchen stellten sie außerdem eine öffentliche Datenbank vor, in der Unternehmens-Verstöße gegen die DSGVO mit verhängter Bußgeldhöhe und detaillierter Begründung aufgelistet sind (hier).
Diese Sitzung bot tiefe Einblicke ins Risikomanagement und die dunklen Seiten der Unternehmensstrategien und gibt den Studierenden neue Werkzeuge, ihre Konzepte zum ethischen Hacking des AI-Acts weiterzuentwickeln. Wir danken dem iDIGMA-Team und allen Studierenden für ihre wertvollen und engagierten Beiträge und freuen uns auf die nächsten Sitzungen!
#BreAkIngBad #Risikomanagement #KünstlicheIntelligenz #DigitaleVerantwortung #EUAIAct #SeminarUpdate #iDIGMAGmbH #EthicalHacking #UHH
16.11.2023
📢 Rückblick auf „BreAkIng Bad – Hacking the AI Act“, vierte Sitzung: Einführung ins AI-Consulting mit unserem Praxispartner iDIGMA
In der vierten Sitzung unseres Seminars „BreAkIng Bad – Hacking the AI Act“ hatten wir das Privileg, Frank Pörschmann (Gründer und Geschäftsführer der iDIGMA GmbH) und Dr. Christiana Klingenberg (Head of Data Management Center of Excellence bei iDIGMA GmbH), Vertreter unseres Praxispartners iDIGMA, zu ihrem ersten Gastvortrag zu begrüßen. iDIGMA, eine führende Unternehmensberatung im Bereich Data Management und Governance, hat sich auf den Aufbau effektiver Datenorganisationen spezialisiert (mehr über sie hier). Die Sitzung vermittelte den Studierenden einen vielschichtigen Einblick in die Welt des KI-Consultings. Durch interaktive Übungen hatten die Studierenden zudem die Gelegenheit, die Konzepte direkt auf ihre eigenen Use-Cases zu übertragen und von den iDIGMA-Experten wertvolle Anregungen und Feedback zu ihren Ideen zu erhalten.
Die Experten von iDIGMA gaben zunächst einen Einblick in ethisch verantwortungsvolles Consulting, indem sie verschiedene Arten und Ansätze des Consultings vorstellten. Sie betonten, dass nachhaltiger Beratungserfolg auf einem soliden Fundament von Fachwissen, dem Einsatz von Werkzeugen und Methoden und einer starken ethischen Grundhaltung basiert. Die Studierenden wurden dazu angeregt, die ideale Zusammensetzung der Beraterteams für ihre Use-Cases zu bestimmen.
Ein weiterer Schwerpunkt des Vortrags lag auf konkreten Methoden, die Consultants zur Strukturierung und Herangehensweise an Projekte verwenden. Dazu gehörten die Problemdefinition, die Problemanalyse, die Bewertung von Lösungen und schließlich die Planung und Umsetzung dieser Lösungen. Die Studierenden bekamen so Methoden an die Hand, mit denen sie ihre eigenen Beratungskonzepte entwickeln können.
Schließlich führten die iDIGMA-Experten die Studierenden in das Verständnis und den praktischen Umgang mit Dilemmata im Kontext des KI-Consultings ein. Sie erörterten, wie widersprüchliche Ziele wie Vertrauen vs. Misstrauen und Risiko vs. Sicherheit in bestimmten Anwendungsfällen eine Priorisierung erfordern. In der anschließenden Diskussion führten sie die Studierenden durch den Prozess, das ethische Dilemma ihrer jeweiligen Use-Cases zu bestimmen und festzulegen, wie weit sie als fiktive „böse“ Unternehmensberater gehen würden, um ihre priorisierten Ziele zu erreichen.
Die Sitzung endete mit einem ersten Einblick in das Risiko-Management und einer Hausaufgabe für die Studierenden, eine Risikoklassifizierung für ihre Use-Cases vorzunehmen und einen Ansatz zur Risikominderung zu entwickeln.
Wir danken dem iDIGMA-Team für ihre inspirierenden Beiträge und die bereichernde Diskussion. Ebenso bedanken wir uns bei unseren Studierenden für ihre engagierten Präsentationen und Beiträge. Wir freuen uns darauf, in den kommenden Sitzungen die Weiterentwicklung der Beratungskonzepte der Studierenden zu beobachten und ihre Ansätze zur Handhabung realer Dilemmata zu sehen!
02.11.2023
📢 Rückblick auf „BreAkIng Bad – Hacking the AI Act“, dritte Sitzung: Einblicke und Diskussionen mit Juristin Dr. Simone Kuhlmann
In unserer neuesten Sitzung des Seminars „BreAkIng Bad – Hacking the AI Act“ hatten wir das Vergnügen, Dr. Simone Kuhlmann, wissenschaftliche Mitarbeiterin an der Fakultät für Rechtswissenschaft unserer Universität und Koordinatorin des Graduiertenkollegs „Das Recht und seine Lehre in der digitalen Transformation“ (mehr über sie hier), als Gastrednerin zu begrüßen. Ihr Vortrag, ergänzt durch lebhafte Diskussionen mit den Studierenden, bot tiefe Einblicke in den aktuellen Stand des AI Acts und die damit verbundenen Herausforderungen.
Dr. Kuhlmann beleuchtete die komplexe Motivation hinter dem AI Act, stellte die jüngsten Vorschläge des Parlaments und des Rates vor und wies auf kritische Lücken hin, insbesondere in Bezug auf die rechtliche Handhabbarkeit und Präzision vieler Definitionen im AI Act. Die Teilnehmenden erörterten intensiv potenzielle rechtliche Unsicherheiten, die sich aus unklaren Definitionen ergeben könnten, wie die korrekte Klassifizierung von Systemen als KI-Systeme und die Deutung von Begriffen wie „breite Datenbasis“ bei Basismodellen.
Besonderes Augenmerk lag auch auf der Rolle von Unternehmen bei der Selbstbewertung ihrer KI-Systeme hinsichtlich des Hochrisiko-Status. Dr. Kuhlmann wies darauf hin, dass die Selbsteinstufung durch die Anbieter und die überwiegend interne Konformitätsbewertung zu Interessenkonflikten und einer potenziell unzureichenden Risikobewertung führen könnten. Darüberhinaus gaben ihre Einblicke in die EU-Sanktionsmöglichkeiten bei Verstößen gegen die Anforderungen an Hochrisiko-KI Anstoß zu kritischen Auseinandersetzungen mit deren Wirksamkeit.
Dieser inspirierende Vortrag leitete eine spannende Reihe von Expertenvorträgen ein, die sich aus unterschiedlichen Perspektiven mit den Anforderungen und potenziellen Lücken des AI Acts befassen. Die Teilnehmer:innen werden ihre Erkenntnisse in den kommenden Wochen weiter vertiefen und auf die von ihnen gewählten KI-Anwendungsfälle übertragen.
Ein großes Dankeschön an Dr. Kuhlmann für ihren wertvollen Beitrag und an alle Studierenden für ihre engagierte Teilnahme und das kritische Hinterfragen. Wir freuen uns auf weitere Erkenntnisse und Diskussionen in dieser Veranstaltungsreihe!
#BreAkIngBad #KünstlicheIntelligenz #DigitaleVerantwortung #EUAIAct #SeminarUpdate #iDIGMAGmbH #UHH
26.10.2023
📢 Aktuelles aus dem Seminar „BreAkIng Bad“
In unserer letzten Sitzung haben wir mit einem kurzen Impuls zum Thema „Digitale Verantwortung“ gestartet, um die Diskussion rund um die ethischen Aspekte der KI-Anwendungsfälle zu vertiefen.
Die Studierenden haben sich in Gruppen zusammengefunden und engagiert den gewählten KI-Anwendungsfällen gewidmet:
- Wahlwerbung mit generativer KI
- System zur Videoüberwachung mit KI-Auswertung
- Unterstützung einer Justiz-Behörde
Im ersten Schritt wurden die relevanten Interessengruppen identifiziert, die von der jeweiligen KI-Anwendung betroffen sein könnten. Im zweiten Schritt erfolgte die Priorisierung möglicher Schäden und schließlich die Identifikation potenzieller Gegenmaßnahmen. Diese erste Analyse bildet die Grundlage für unsere weiteren Arbeiten im Semester und die Untersuchung der Anwendungsfälle im Hinblick auf den geplanten EU AI Act.
Wir sind gespannt auf die Erkenntnisse und Ergebnisse, die in den kommenden Wochen entstehen werden!
#BreAkIngBad #KünstlicheIntellige
19.10.2023
📢Rückblick auf unsere erste Lehrveranstaltung zum Seminar „BreAkIng Bad“
In der Auftaktveranstaltung haben wir einen ersten Überblick über die Schlüsselaspekte des Seminars gegeben und dabei die Grundlagen von Künstlicher Intelligenz (KI) sowie des EU AI Acts beleuchtet. Gemeinsam mit unserem Praxispartner, der iDIGMA GmbH, haben wir neun spannende KI-Anwendungsfälle vorbereitet. Diese praxisrelevanten Fälle weisen großes betriebswirtschaftliches Potenzial durch den Einsatz von KI auf, werfen jedoch gleichzeitig vielfältige ethische Fragen auf und stehen damit in direktem Bezug zum EU AI Act.
Bis zur nächsten Sitzung werden sich die Studierenden in Gruppen von 3 bis 4 Personen zusammenfinden und als Team einen der KI-Anwendungsfälle auswählen, den sie dann über das Semester hinweg bearbeiten werden. Ziel ist die Erarbeitung eines Umsetzungskonzepts und somit eines wertvollen Beitrags zur Diskussion rund um den EU AI Act.
Hier sind die KI-Anwendungsfälle zur Auswahl:
- Bewerbungsmanagement- und Personalauswahlsystem
- Versicherungstarife basierend auf persönlichem Verhalten
- Wahlwerbung mit generativer KI
- System zur Videoüberwachung mit KI-Auswertung
- Modulares KI-System „Smart.Home“
- „SMART.FIT“ Fitnesscenter
- Interaktiver Intelligenter Lernassistent
- Unterstützung einer Justiz-Behörde
- Leistungsmanagement für Unternehmen
Ein herzliches Dankeschön an alle Teilnehmer:innen für das Interesse und die angeregte Diskussion! Wir freuen uns auf ein spannendes Semester.
#KünstlicheIntelligenz #EUAIAct #Seminar #iDIGMA #EthikInKI
01.09.2023
📢Liebe Studierende der Universität Hamburg,
in unserem Seminar „BreAkIng Bad – Hacking the AI Act“ begebt Ihr Euch in die Rolle von KI-Profiteuren, die im Spannungsfeld von Gewinn und ethisch-verantwortlichem Handeln eine klare Neigung zu ersterem haben, aber dennoch die neue EU-Richtlinie zu KI („AI Act“) beachten müssen. In Teams entwickelt ihr hierbei ein Konzept für einen ausgewählten KI-Anwendungsfall, für welchen ihr die Graubereiche auslotet. Das Seminar wird durch einen Praxispartner (iDIGMA vertreten durch Frank Pörschmann und Dr. Christiana Klingenberg) und verschiedene Gastvorträge begleitet.
Name in Stine: ISA-200.024 BreAkIng Bad – Hacking the AI Act
Wenn du Fragen dazu hast, melde dich gerne bei uns (Michaela Regneri oder Lucas Memmert). #responsibleAI #aiact #cdr #teaching