Scarlett Johansson hat gewonnen – und dieses Mal nicht gegen irgendeinen Bösewicht aus “The Avengers”, sondern gegen die KI von OpenAI. Diese soll ohne ihre Erlaubnis Johansson Stimme für den Chatbot ChatGPT kopiert haben.
OpenAI stellte kürzlich eine neue Version des Chatbots ChatGPT vor.
Neben einigen Neuerungen gab es eine besondere: In der neuen Version können Nutzer:innen nicht mehr nur schriftlich mit dem Bot kommunizieren, sondern auch eine von fünf Stimmoptionen wählen.
Die KI-Stimmen klingen erstaunlich echt – und eine davon, die Option „Sky“, klingt auch besonders vertraut.
Die Schauspielerin Scarlett Johansson warf dem Unternehmen OpenAI vor, dass die Stimmoption “Sky” des Chatbots ChatGPT wie ihre eigene klinge.
Diese Überraschung kam jedoch nicht aus dem Nichts: Im vergangenen September hatte der CEO von OpenAI Johansson gefragt, ob sie eine der Stimmen für ChatGPT werden wolle. Die 39-jährige Schauspielerin lehnte das Angebot ab.
Dass ihre Stimme nun gegen ihren Willen kopiert wurde, ließ Johansson nicht auf sich sitzen. Prompt schaltete sie ihre Anwälte ein. Das Unternehmen OpenAI bestritt Johanssons Vorwürfe zwar, stimmte jedoch zu, die KI-Stimme „Sky“ nicht mehr weiterzuverwenden.
Der Fall Johansson steht stellvertretend für die Sorge vieler – er zeigt, dass KIs wie die von OpenAI ausgeklügelte Algorithmen zur Nachahmung kreativer menschlicher Arbeit sind. Besonders in einer Zeit, in der wir zunehmend mit Deepfakes konfrontiert werden, stellt sich die dringende Frage, wie wir unsere Arbeit und unsere Identität schützen können.
Der Missbrauch von Stimmen und Bildern durch KIs wirft also immer mehr ernsthafte ethische und rechtliche Fragen auf. Es wird immer wichtiger, klare Regelungen und Schutzmechanismen zu entwickeln, um unsere Identitäten in einer digitalisierten Welt zu schützen.
Was der Fall Johansson auch zeigt, ist, dass es wichtig ist, für sich einzustehen. Prominente wie Johansson haben zwar die nötigen Ressourcen, um gegen solche Praktiken vorzugehen, doch auch für weniger bekannte Personen müssen Schutzmechanismen vorhanden sein.
In der EU wurden nun passend zu den gesetzlichen Bedenken beim Einsatz Künstlicher Intelligenz offiziell schärfere Regeln für KI beschlossen. Ab Frühjahr 2024 werden mit diese dann Videoüberwachung, Spracherkennung oder Auswertung von Finanzdaten geregelt. Ein weiterer wichtiger Fokus: Funktionen, die in Persönlichkeitsrechte eingreifen, werden ebenfalls verboten.
Im Fokus steht dabei vor allem, dass die KI-Systeme transparent und nachvollziehbar sein sollen. Für weitere potentielle Klagen hat die EU damit zumindest eine erste Basis geschaffen – Expert:innen kritisieren jedoch ihr verspätetes Inkrafttreten.
Sharing is Caring: Teil den Beitrag, wenn er dir gefällt!
Feedback und angeregte Diskussionen sind Balsam für unsere Blog-Herzen. Vielleicht könnte das Thema ja auch deine Freund:innen oder Kolleg:innen interessieren?