Beliebter, unheimlich menschenähnlicher OpenAI-Chatbot ChatGPT wurde laut einer neuen Untersuchung auf dem Rücken unterbezahlter und psychisch ausgebeuteter Mitarbeiter aufgebaut ZEIT.
Ein in Kenia ansässiges Datenkennzeichnungsteam, das von einer Firma in San Francisco geleitet wird Das gleicheBerichten zufolge erhielt er nicht nur erschreckend niedrige Löhne, als er für eine Firma arbeitete, die das tat möglicherweise auf dem besten Weg, eine Investition von 10 Milliarden US-Dollar von Microsoft zu erhaltenwurde aber auch verstörend anschaulichen sexuellen Inhalten ausgesetzt, um ChatGPT von gefährlichen Hassreden und Gewalt zu säubern.
Gas, die App für Komplimente, wurde von Discord gekauft
Ab November 2021 schickte OpenAI Zehntausende von Textproben an die Mitarbeiter, die damit beauftragt wurden, die Passagen nach Fällen von sexuellem Missbrauch von Kindern, Bestialität, Mord, Selbstmord, Folter, Selbstverletzung und Inzest zu durchsuchen. ZEIT gemeldet. Mitglieder des Teams sprachen davon, jeden Tag Hunderte solcher Einträge lesen zu müssen; Für Stundenlöhne, die zwischen 1 und 2 Dollar pro Stunde lagen, oder ein Monatsgehalt von 170 Dollar, empfanden einige Angestellte ihre Arbeit als „geistige Narben“ und eine gewisse Art von „Folter“.
Berichten zufolge wurden Mitarbeitern von Sama Wellness-Sitzungen mit Beratern sowie Einzel- und Gruppentherapien angeboten, aber mehrere befragte Mitarbeiter sagten, die Realität der psychischen Gesundheitsversorgung im Unternehmen sei enttäuschend und unzugänglich. Die Firma antwortete, dass sie die psychische Gesundheit ihrer Mitarbeiter ernst nähmen.
Die ZEIT Die Untersuchung ergab auch, dass dieselbe Gruppe von Mitarbeitern zusätzliche Arbeit erhielt, um eine riesige Menge grafischer – und scheinbar zunehmend illegaler – Bilder für ein nicht bekannt gegebenes OpenAI-Projekt zusammenzustellen und zu kennzeichnen. Sama beendete seinen Vertrag mit OpenAI im Februar 2022. Bis Dezember würde ChatGPT das Internet fegen und Chatrooms übernehmen, während die nächste Welle innovativer KI spricht.
Zum Zeitpunkt seiner Einführung war ChatGPT dafür bekannt, dass es eine überraschend umfassendes Vermeidungssystem vorhanden, das weit darin lag, Benutzer daran zu hindern, die KI dazu zu bringen, rassistische, gewalttätige oder andere unangemessene Sätze zu sagen. Es markierte auch Text, den es im Chat selbst als bigott erachtete, färbte es rot und gab dem Benutzer eine Warnung.
Die ethische Komplexität von KI
Obwohl die Nachricht von OpenAIs versteckter Belegschaft beunruhigend ist, ist es nicht völlig überraschend, da die Ethik der menschenbasierten Inhaltsmoderation keine neue Debatte ist, insbesondere in sozialen Medienbereichen, die mit den Grenzen zwischen freiem Posten und dem Schutz ihrer Benutzerbasis spielen. Im Jahr 2021 wird die New York Times berichtete über Auslagerung der Post-Moderation durch Facebook an ein Buchhaltungs- und Kennzeichnungsunternehmen namens Accenture. Die beiden Unternehmen lagerten die Moderation an Mitarbeiter auf der ganzen Welt aus und mussten sich später mit massiven Folgen einer Belegschaft auseinandersetzen, die psychologisch nicht auf die Arbeit vorbereitet war. Facebook zahlte 2020 eine Abfindung in Höhe von 52 Millionen US-Dollar an traumatisierte Arbeiter.
Die Moderation von Inhalten ist sogar Gegenstand psychologischer Horror- und postapokalyptischer tech-Medien geworden, wie etwa im Thriller 2022 der niederländischen Autorin Hanna Bervoets Wir mussten diesen Beitrag entfernen, der den Nervenzusammenbruch und die rechtlichen Turbulenzen eines Qualitätssicherungsmitarbeiters eines Unternehmens aufzeichnet. Für diese Charaktere und die wahren Menschen hinter der Arbeit sind die Perversionen einer tech– und internetbasierten Zukunft ein bleibendes Trauma.
Die schnelle Übernahme von ChatGPT und die aufeinanderfolgende Welle von KI-Kunstgeneratoren wirft mehrere Fragen an eine breite Öffentlichkeit auf, die immer mehr bereit ist, ihre Daten herauszugeben, soziale und romantische Interaktionen, und sogar kulturelle Schöpfung bis hin zu tech. Können wir uns auf künstliche Intelligenz verlassen, um tatsächliche Informationen und Dienste bereitzustellen? Welche akademischen Implikationen hat textbasierte KI, die in Echtzeit auf Feedback reagieren kann? Ist es unethisch, die Arbeit von Künstlern zu verwenden, um neue Kunst in der Computerwelt zu schaffen?
Die Antworten darauf sind sowohl offensichtlich als auch moralisch komplex. Chats sind es nicht Speicher für genaues Wissen oder originelle Ideen, aber sie bieten eine interessante sokratische Übung. Sie erweitern schnell die Möglichkeiten für Plagiate, aber Viele Akademiker sind fasziniert von ihrem Potenzial als kreative Aufforderungsinstrumente. Die Ausbeutung von Künstler und ihr geistiges Eigentum ist ein eskalierendes Thema, aber kann es im Namen der sogenannten Innovation vorerst umgangen werden? Wie können Entwickler Sicherheit in diese technologischen Fortschritte einbauen, ohne die Gesundheit von echten Menschen hinter den Kulissen zu riskieren?
Eines ist klar: Der rasche Aufstieg der KI als nächste technologische Grenze wirft weiterhin neue ethische Probleme bei der Entwicklung und Anwendung von Werkzeugen auf, die die menschliche Interaktion auf echte menschliche Kosten nachbilden.
Wenn Sie sexuellen Missbrauch erlebt haben, rufen Sie die kostenlose, vertrauliche National Sexual Assault Hotline unter 1-800-656-HOPE (4673) an oder greifen Sie online auf die 24-7-Hilfe zu, indem Sie besuchen online.rainn.org.