Home Podcast Über Angebot Ressourcen Blog

Wie künstliche Intelligenz entstanden ist (und erste ethische Grundprinzipien)

aiact ethik ki kigeschichte Apr 02, 2024

Die Sache mit der KI ist nach wie vor ein heißes Thema

Damit meine ich nicht so sehr den Einsatz von KI in der Industrie, sondern wenn es um uns Menschen, unsere Persönlichkeit und um uns als Individuum geht. Daher habe ich mich auf den Weg gemacht, um heraus zu finden, inwiefern bereits heute ethisch-moralische Grundwerte (Stand Anfang 2022) einen Platz in der Entwicklung, Handhabung und beim Einsatz von KI-Technologien haben.

Gibt es Grenzen? Wo ist der Punkt der Verschmelzung? Wer genau oder welche Gruppe an Menschen definiert diese Grenzen und legt sie fest und wo wird es in Zukunft hingehen?

All diesen Fragen versuche ich bestmöglich nachzugehen und eine Antwort für dich zu finden, denn auch hier ist klar: wir sind mit dieser Technologie bereits so weit voran geschritten, dass es kein zurück mehr gibt. Der Nutzen ist viel zu groß und dieser Bereich wird aktuell stärker ausgebaut denn je.

Auch hier gilt wieder mein Motto: es geht darum informiert zu sein, ein gewisses Grundwissen zu haben, um die Lage selbst einschätzen zu können. Wer viel weiß und Wissen angesammelt hat, wer auf dem Weg der steten Weiterbildung ist, hat immer gewonnen. Wissen ist Macht. Bildung ist Macht. Heutzutage mehr denn je zuvor. Also bewegen wir uns heute gemeinsam auf dem Pfad des Wissens und der Erforschung dieses Themas.

Was genau KI ist und wie sie funktioniert oder auch wo sie auch heute eingesetzt wird, darauf werde ich heute nicht so ausführlich eingehen, das erfährst du in meiner Future Identity Podcast Folge über KI Nummer #29 Einführung in das Thema Künstliche Intelligenz

Hier kommst du zu Folge 29

Heute werfen wir erst einmal einen Blick in die Entstehungsgeschichte von KI um dann nach ethischen Grundprinzipien Ausschau zu halten. Um Werte im Bezug zu einer Neuentwicklung zu entwerfen braucht es, meinem Gefühl nach immer den geschichtlichen Blick zurück.

Dennoch eine kurze Hinführung und Definitionserklärung zur künstlichen Intelligenz:

Künstliche Intelligenz (KI) ist die Simulation menschlicher Intelligenzprozesse durch Maschinen, insbesondere durch Computersysteme. Zu den Anwendungen der KI zählen Expertensysteme, die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP), Spracherkennung oder auch maschinelles Sehen (Machine Vision).

Die Geschichte der KI: Reisen wir zurück in die Vergangenheit, zum ur-eigentlichen Ursprung künstlicher Intelligenz. Das Konzept und die Idee der unbelebten Objekte, die mit Intelligenz ausgestattet sind, gibt es schon seit der Antike, es ist quasi eine uralt-Idee. Interessanterweise wird in einigen Aufzeichnungen der griechische Gott Hephaistos in Mythen gezeigt, wie er roboterartige Diener aus Gold schmiedete. So auch im alten Ägypten: damals bauten Ingenieure Statuen von Göttern, die von Priestern animiert wurden. Und im Laufe der Jahrhunderte nutzten Denker von Aristoteles bis hin zu René Descartes die Werkzeuge und die Logik ihrer Zeit, um menschliche Denkprozesse in Form von Symbolen zu beschreiben. Das ist vom Denkvorgang her absolut der Grundstein für KI-Konzepte . 

Die zweite Hälfte des 19. Jahrhunderts und die erste Hälfte des 20. Jahrhunderts bereiteten die Basis moderner Computer vor. Und es war im Jahr 1836, als der Mathematiker Charles Babbage, Universität Cambridge, und Augusta Ada Byron, Gräfin von Lovelace, den ersten Entwurf für eine programmierbare Maschine erstellten.

Erst 100 Jahre später entwickelte der Princeton-Mathematiker John von Neumann das Grundkonstrukt des speicherprogrammierbaren Computers – die Idee, dass das Programm eines Computers und die Daten, die er verarbeitet, im Speicher des Computers gespeichert werden können. Dann waren es Warren McCulloch und Walter Pitts, die den Grundstein für neuronale Netze legten. 

Es gab weltweit, so wie immer bei revolutionären Erfindungen, parallel Entwicklungen. Im Jahre 1935 stellten IBM die IBM 601 vor, eine Lochkartenmaschine, die eine Multiplikation pro Sekunde durchführen konnte. Es wurden ca. 1500 Exemplare verkauft und zwei Jahre später 1937 meldete Konrad Zuse zwei Patente an, die bereits alle Elemente der so genannten Von-Neumann-Architektur beschreiben. Die Von-Neumann-Architektur ist ein grundlegendes Referenzmodell für Computer, bei dem ein gemeinsamer Speicher sowohl Programmbefehle als auch Daten enthält.

Im selben Jahr baute John Atanasoff zusammen mit dem Doktoranden Clifford Berry einen der ersten Digitalrechner, den Atanasoff-Berry-ComputerDer Atanasoff-Berry-Computer, auch bekannt als ABC, war einer der ersten elektronischen Digitalrechner, der von John Vincent Atanasoff und Clifford Berry zwischen 1939 und 1942 am Iowa State College entwickelt wurde. Dieser Computer basierte auf dem binären Zahlensystem und war darauf spezialisiert, lineare Gleichungssysteme zu lösen. 

Atanasoff-Berry-Computer

Alan Turing publizierte einen Artikel, der die Turingmaschine, ein abstraktes Modell zur Definition des Algorithmusbegriffs, beschreibt. Eine Turingmaschine besteht grundlegend aus drei Elementen: einem unendlichen Band, das in Zellen unterteilt ist, einem Lese-/Schreibkopf, der entlang des Bandes bewegt wird, und einer Steuereinheit, die nach einem endlichen Zustandsautomaten funktioniert. Diese Maschine kann als universelles Modell eines Computers betrachtet werden und verdeutlicht, wie Algorithmen durch maschinelles Rechnen gelöst werden können.

Turingmaschine

Kurze Zeit später - 1938 stellte Konrad Zuse die Zuse1 fertig, einen frei programmierbaren mechanischen Rechner, der allerdings aufgrund von Problemen mit der Fertigungspräzision nie voll funktionstüchtig war. Dieser Rechner war vollständig mechanisch und bestand aus mechanischen Schaltgliedern. Die Zuse1 war der Vorläufer der Z3, die als Nachbau der Z1 auf Basis von Relais gilt und als erster Computer überhaupt angesehen wird.

Zuse1

Mit dem Aufkommen modernerer Computervorläufer konnten in den 1950er Jahren Wissenschaftler ihre Vorstellungen von maschineller Intelligenz erstmals testen. Eine Methode, um festzustellen, ob ein Computer intelligent ist, wurde von dem britischen Mathematiker und Codeknacker des Zweiten Weltkriegs Alan Turing entwickelt. Da gibt es ein spannendes und zentrales Thema, das untersucht wurde: denn im Mittelpunkt des Turing-Tests stand die Fähigkeit eines Computers, Vernehmungsbeamten vorzugaukeln, dass seine Antworten auf ihre Fragen von einem Menschen stammten. 

Der Turing-Test ist kurz gesagt eine Untersuchungsmethode im Bereich der künstlichen Intelligenz (KI), die darauf abzielt festzustellen, ob ein Computer in der Lage ist, intelligentes Verhalten zu zeigen, das dem eines Menschen äquivalent oder nicht von einem Menschen zu unterscheiden ist. Der Test basiert auf einem Frage-Antwort-Spiel zwischen einem menschlichen Fragesteller und einem menschlichen sowie einem computerbasierten Gesprächspartner. 

 

Bereits im Jahr 1956...

wurde der moderne Bereich der künstlichen Intelligenz auf einer Sommerkonferenz am Dartmouth College begründet. Diese Konferenz wurde von der Defense Advanced Research Projects Agency (DARPA) gesponsert und es nahmen zehn Koryphäen auf diesem Gebiet teil, darunter die KI-Pioniere Marvin Minsky, Oliver Selfridge und John McCarthy, der wohl derjenige ist, der den Begriff der künstlichen Intelligenz geprägt haben soll.

Ebenfalls anwesend waren der Informatiker Allen Newell und der Wirtschaftswissenschaftler, Politologe und Kognitionspsychologe Herbert A. Simon, die ihr bahnbrechendes Programm Logic Theorist vorstellten. Das war ein Computerprogramm, das in der Lage war, bestimmte mathematische Theoreme zu beweisen und als das allererste KI-Programm bezeichnet wurde.

Im Anschluss an die Konferenz am Dartmouth College sagten führende Forscher auf dem noch sehr jungen Gebiet der KI voraus, dass eine dem menschlichen Gehirn gleichwertige künstliche Intelligenz kurz bevorstehe, und erhielten dafür , wie könnte es anders sein, große Unterstützung aus Regierung und Industrie. Geld wurde hinein geschoben und fast 20 Jahre gut finanzierter Grundlagenforschung führte zu großen Fortschritten auf dem Gebiet der KI: Ende der 1950er Jahre veröffentlichten Newell und Simon beispielsweise den GPS-Algorithmus (General Problem Solver), der zwar nicht in der Lage war, komplexe Probleme zu lösen, aber den Grundstein für die Entwicklung anspruchsvollerer kognitiver Architekturen legte; McCarthy entwickelte Lisp, eine Programmiersprache für KI, die auch heute noch verwendet wird. Mitte der 1960er Jahre entwickelte MIT-Professor Joseph Weizenbaum ELIZA, ein frühes Programm zur Verarbeitung natürlicher Sprache, das die Grundlage für die heutigen Chatbots bildete.

 

Wir tauchen mitten in die 70er und 80er Jahre ein

Anders als noch 10, 15 Jahre zuvor vorhergesagt, lag die Erreichung einer allgemeinen künstlichen Intelligenz nicht unmittelbar bevor, sondern ganz im Gegenteil. Man kam an die Grenzen der Computerverarbeitung und des Speichers und erkannte, dass die Komplexität des Problems größer war, als bisher vermutet. Das hatte zur Folge, dass sich Regierungen und Unternehmen aus der Unterstützung der KI-Forschung zurückzogen, was zu einer Stilllegungsperiode von 1974 bis 1980 führte, die auch als der erste KI-Winter bekannt wurde.

Nächste große Erkenntnisse gab es dann in den 1980ern, denn die Forschung zu Deep-Learning-Techniken kam voran und die Übernahme von Edward Feigenbaums Expertensystemen durch die Industrie lösten eine neue Welle der KI-Begeisterung aus. Doch auch danach folgte ein erneuter Einbruch der staatlichen Finanzierung und der Unterstützung durch die Industrie. Der zweite KI-Winter dauerte bis Mitte der 1990er Jahre.

Von etwa 1990 bis heute stand im Hauptfokus die Steigerung der Rechenleistung und die Explosion der Datenmengen, was zur Folge hatte, dass Lösungen für die Speicherkapazität gefunden werden mussten, und genau diese Themen  lösten in den späten 1990er Jahren eine Renaissance der KI aus. Es kam in der Folge zu Durchbrüchen in den Bereichen Verarbeitung natürlicher Sprache, Computer Vision, Robotik, maschinelles Lernen und Deep Learning. 

Wie wir in den vergangenen Jahren beobachten konnten, entwickeln sich künstliche neuronale Netze (KNN) und Deep-Learning-Technologien mit künstlicher Intelligenz in einem sehr schnellen Tempo weiter. Das liegt vor allem daran, dass KI große Datenmengen schneller verarbeitet und genauere Vorhersagen macht, als es dem Menschen möglich ist. Jene riesigen Datenmengen, die täglich anfallen, würden einen menschlichen Forscher überfordern, so können KI-Anwendungen, die maschinelles Lernen nutzen, diese Daten schnell in verwertbare Informationen umwandeln.

Zum jetzigen Zeitpunkt besteht der Hauptnachteil des Einsatzes von KI darin, dass die Verarbeitung der großen Datenmengen, die für die KI-Programmierung erforderlich sind, noch sehr teuer ist.

 

Vorteile des Einsatzes von KI

  • Gut geeignet für detailorientierte Aufgaben
  • es entsteht ein geringerer Zeitaufwand für datenintensive Aufgaben
  • KI liefert konsistente Ergebnisse
  • KI-gestützte virtuelle Agenten sind immer verfügbar

Die Nachteile sind hingegen

  • die Technologie immer noch teuer
  • es erfordert ein umfassendes technisches Fachwissen
  • es gibt ein begrenztes Angebot an qualifizierten Arbeitskräften für die Entwicklung von KI-Tools
  • KI weiß nur, was ihm gezeigt wurde
  • es besteht eine mangelnde Fähigkeit zur Verallgemeinerung von einer Aufgabe auf eine andere

 

Und bevor den ethischen Aspekt tiefer beleuchten gibt es noch die Unterscheidung zwischen starker und schwacher KI: eine schwache KI, auch bekannt als enge KI, ist ein KI-System, das für die Ausführung einer gezielten, oft einzelnen Aufgabe entwickelt und trainiert wurde. Industrieroboter und virtuelle persönliche Assistenten, wie zum Beispiel Siri von Apple, verwenden schwache KI. Starke KI, auch bekannt als künstliche allgemeine Intelligenz (Artificial General Intelligence, AGI), beschreibt eine Programmierung, die die kognitiven Fähigkeiten des menschlichen Gehirns nachbilden kann. 

 

Ethische Aspekte

Doch es ist natürlich so, dass seit der Entstehung und dem Aufkommen von KI ethische Aspekte künstlicher Intelligenz diskutiert wurden und nach wie vor werden. Mittlerweile gibt es mehrere Richtlinien Kataloge, u.a. der Unesco, der EU. Wie du bereits weisst, bieten die KI-Tools eine Reihe neuer Funktionen für Unternehmen, doch im selben Ausmaß kommen etliche ethische Fragen zu künstlicher Intelligenz auf, da ein KI-System im Guten wie im Schlechten das verstärkt, was es bereits gelernt hat. Das kann durchaus problematisch sein, da die Algorithmen des maschinellen Lernens, die vielen der fortschrittlichen KI-Tools zugrunde liegen, nur so intelligent sind wie die Daten, die ihnen beim Training zur Verfügung gestellt werden.

Da ein Mensch auswählt, welche Daten zum Trainieren eines KI-Programms verwendet werden, ist das Potenzial für Verzerrungen beim maschinellen Lernen gegeben und muss daher genau überwacht werden. Erzeuger und Produzenten von Produkten und Technologien, denen maschinelles Lernen als Teil von realen, produktiven Systemen einsetzen zugrunde liegt, muss ethische Aspekte in seine KI-Trainingsprozesse einbeziehen und sich bemühen, Verzerrungen zu vermeiden. Dies gilt insbesondere für den Einsatz von KI-Algorithmen, die u.a. bei Deep Learning vorkommen.

 

Ein Beispiel aus dem Finanzsegment

Die Erklärbarkeit kann ein Hindernis für den Einsatz von KI in Branchen, die strengen regulatorischen Anforderungen unterworfen sind. Finanzinstitute verschiedener Länder sind dazu verpflichtet, ihre Entscheidungen zur Kreditvergabe zu erklären. Wenn die Entscheidung über die Ablehnung eines Kredits von einer KI-Programmierung getroffen wird, kann es jedoch schwierig sein zu erklären, wie die Entscheidung zustande gekommen ist, da die KI-Tools, die für solche Entscheidungen verwendet werden, subtile Wechselwirkungen zwischen etlichen von Variablen herausarbeiten.

Wenn der Entscheidungsprozess nicht erklärt werden kann, wird das Programm als eine sogenannte Black Box AI bezeichnet. Und das erstaunliche ist: Trotz der potenziellen Risiken gibt es derzeit nur wenige Vorschriften für den Einsatz von KI-Tools, und wo es Gesetze gibt, beziehen sie sich in der Regel nur indirekt auf KI.

Und dann gibt es da natürlich auch noch die EU-Datenschutz-Grundverordnung (DSGVO), die auch für den Bereich KI gilt. Und diese setzt strenge Grenzen für die Nutzung von Verbraucherdaten durch Unternehmen, was die Ausbildung und Funktionalität vieler verbraucherorientierter KI-Anwendungen behindert.

Insgesamt ist die Ausarbeitung von Gesetzen zur Regulierung von KI nicht einfach, u.a. weil KI eine Vielzahl von Technologien umfasst, die von Unternehmen zu unterschiedlichen Zwecken eingesetzt werden und die schnelle Entwicklung von KI-Technologien ist ein weiteres Hindernis für eine sinnvolle Regulierung von KI. Stell dir nur vor: Technologische Durchbrüche und neuartige Anwendungen können bestehende Gesetze sofort überflüssig machen. So decken beispielsweise die bestehenden Gesetze zum Schutz der Privatsphäre von Gesprächen und Gesprächsaufzeichnungen nicht die Herausforderung ab, die Sprachassistenten wie Amazons Alexa und Apples Siri darstellen, die Gespräche sammeln, aber nicht weitergeben – außer an die Technologie-Teams der Unternehmen, die sie zur Verbesserung von Algorithmen für maschinelles Lernen nutzen. 

Verfasst wurde eine sogenannte EU-Checkliste für ethische Künstliche Intelligenz

Dieser liegt die Frage zugrunde an  welche ethischen Grundsätze eine in Zukunft immer leistungsfähiger werdende Künstliche Intelligenz gebunden werden sollte. Bereits im Jahr 1942 beschrieb Isaac Asimov in seiner Kurzgeschichte „Runaround“ erstmals die Grundregeln des Roboterdienstes:

  1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird;
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren;
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

In der Gegenwart, da autonom agierende Maschinen bereits Realität sind, beabsichtigt die Europäische Union sich mit einem Güteversprechen gegenüber den KI-Großmächten USA und China zu positionieren.

Interessant finde ich folgende Auflistung, die eine Expertengruppe in einem ersten Schritt verfasst hat. Es geht darum, welche Grundvoraussetzungen KI erfüllen muss, um als zuverlässig und vertrauenswürdig gelten zu können. Nicht wundern, wenn man als “Mensch” diese Punkte hört, denkt man vielleicht: aber das muss doch eine Selbstverständlichkeit sein. Ja, für uns vielleicht… doch für andere eventuell nicht. Daher ist es enorm wichtig, diese Werte und ethischen Prinzipien in Wort und Schrift zu fassen, um einem Missbrauch oder Fehleinsatz jetzt schon vorzubeugen.

1. Sicherheit und  Robustheit

Eine vertrauenswürdige KI setzt Algorithmen voraus, die sicher, verlässlich und robust genug sind, um Fehler oder Unstimmigkeiten in allen Phasen des Lebenszyklus eines KI-Systems zu bewältigen.

2. Vorrang menschlichen Handelns und menschlicher Aufsicht

KI-Systeme sollten gerechten Gesellschaften dienen, indem sie das menschliche Handeln und die Wahrung der Grundrechte unterstützen. Sie sollten keinesfalls die Autonomie der Menschen verringern, beschränken oder verfälschen.

3. Privatsphäre und Datenqualitätsmanagement

Bürger eines Landes sollten die volle Kontrolle über ihre eigenen Daten behalten und die Daten sollten nicht dazu verwendet werden, sie zu schädigen oder zu diskriminieren.

4. Transparenz

Die Rückverfolgbarkeit der KI-Systeme muss sichergestellt werden.

5. Vielfalt, Nichtdiskriminierung und Fairness

KI-Systeme sollten dem gesamten Spektrum menschlicher Fähigkeiten, Fertigkeiten und Anforderungen Rechnung tragen und die Barrierefreiheit gewährleisten.

6. Gesellschaftliches und ökologisches Wohlergehen

KI-Systeme sollten eingesetzt werden, um einen positiven sozialen Wandel sowie die Nachhaltigkeit und ökologische Verantwortlichkeit zu fördern.

7. Rechenschaftspflicht

Es geht darum, dass  Mechanismen erschaffen werden, die die Verantwortlichkeit und Rechenschaftspflicht für KI-Systeme und deren Ergebnisse gewährleisten.

Man geht davon aus, dass basierend auf diesen sieben Grundprinzipien die Europäische Union Prüfkataloge entwickelt, die eine Beurteilung der in den Unternehmen eingesetzten Künstlichen Intelligenz auch nach ihrer Nützlichkeit oder Schädlichkeit für die von der Verarbeitung betroffenen Menschen ermöglichen wird. Dieser Katalog stammt aus dem Jahr 2019.

Bislang wurden von der EU neue Regeln zur Produkthaftung und harmonisierte Haftungsvorschriften für fehlerhafte Produkte in die Wege geleitet. Die neuen Vorschriften sollen für die Unternehmen Rechtssicherheit schaffen, damit diese in neue und innovative Produkte investieren können. Zudem geht es darum, dass Opfer angemessen entschädigt werden können, wenn fehlerhafte Produkte Schäden verursachen. Weitere rechtliche Aspekte befinden sich in der Überprüfung.

Ob all das nun zufriedenstellend ist oder nicht, kann jeder von uns selbst entscheiden. Für mich entstand das Bild, dass wir uns ethisch und auch rechtlich im Bezug zu KI mehr als in den Babyschuhen befinden und ich sage bewusst Babyschuhe und nicht Kinderschuhe. Es bleibt zu hoffen, dass das Tempo an Gesetzesbeschlüssen und der Erschaffung an Regelwerken zunimmt. Sonst überrollt die KI Entwicklungsgeschwindigkeit alles.

 

Der AI-Act der EU im Jahre 2023 (Nachtrag)

Neue Regelungen entstanden just etwa 8 Monate nach der Erst-Erscheinung meines Blog-Beitrages: Der AI Act - eine Verordnung zur weltweiten Regulierung der KI.

Vier-Punkte-Zusammenfassung

Das KI-Gesetz stuft KI nach ihrem Risiko ein:

  • Unannehmbare Risiken sind verboten (z. B. soziale Bewertungssysteme und manipulative KI).
  • Der größte Teil des Textes befasst sich mit KI-Systemen mit hohem Risiko, die reguliert sind.
  • Ein kleinerer Teil befasst sich mit KI-Systemen mit begrenztem Risiko, für die geringere Transparenzpflichten gelten: Entwickler und Betreiber müssen sicherstellen, dass die Endnutzer wissen, dass sie mit KI interagieren (Chatbots und Deepfakes).
  • Das geringste Risiko ist unreguliert (einschließlich der meisten KI-Anwendungen, die derzeit auf dem EU-Binnenmarkt erhältlich sind, wie z. B. KI-gestützte Videospiele und Spam-Filter - zumindest im Jahr 2021; dies ändert sich mit der generativen KI).

Die meisten Verpflichtungen treffen die Anbieter (Entwickler) von risikoreichen KI-Systemen.

  • Diejenigen, die beabsichtigen, hochriskante KI-Systeme in der EU in Verkehr zu bringen oder in Betrieb zu nehmen, unabhängig davon, ob sie in der EU oder in einem Drittland ansässig sind.
  • Und auch Anbieter aus Drittländern, bei denen der Output des Hochrisiko-KI-Systems in der EU verwendet wird.

Nutzer sind natürliche oder juristische Personen, die ein KI-System beruflich einsetzen, nicht aber betroffene Endnutzer.

  • Die Nutzer (Anwender) von KI-Systemen mit hohem Risiko haben einige Verpflichtungen, wenn auch weniger als die Anbieter (Entwickler).
  • Dies gilt für Nutzer in der EU und für Nutzer in Drittländern, wenn der Output des KI-Systems in der EU verwendet wird.

Allzweck-KI (GPAI):

  • Alle Anbieter von GPAI-Modellen müssen technische Unterlagen und Gebrauchsanweisungen bereitstellen, die Urheberrechtsrichtlinie einhalten und eine Zusammenfassung der für die Ausbildung verwendeten Inhalte veröffentlichen.
  • Anbieter von GPAI-Modellen mit freien und offenen Lizenzen müssen lediglich das Urheberrecht einhalten und die Zusammenfassung der Ausbildungsdaten veröffentlichen, es sei denn, sie stellen ein systemisches Risiko dar.
  • Alle Anbieter von GPAI-Modellen, die ein systemisches Risiko darstellen - ob offen oder geschlossen -, müssen auch Modellbewertungen und Gegentests durchführen, schwerwiegende Vorfälle verfolgen und melden und Cybersicherheitsschutzmaßnahmen gewährleisten.

Mehr dazu unter: Artificial Intelligence Act

 

 

 

Close

50% Complete

Two Step

Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua.