Einige Benutzer haben es geschafft, das ChatGPT-Modell zu „täuschen“, sodass es falsche Erklärungen anbietet. Wie können wir dieser Möglichkeit der Manipulation begegnen?
Fehlinformationen sind ein großes Problem. Und je besser die Technologie wird, desto größer wird das Fehlinformationsproblem. Weil es möglich ist, falsche Annahmen in die Antwort einzubringen, wenn die Basisdaten falsch sind. Es ist möglich, dass die Maschine Menschen unbeabsichtigt in die Irre führt, nur weil vorherrschende Daten zu einem Fehler führen. Es gibt ein altes Eskimo-Sprichwort, dass Wissen ohne Weisheit wie Wasser im Sand ist. Dies trifft sehr auf die KI zu, die über Wissen verfügt, aber keine Weisheit hat.
Und was ist das Ergebnis davon?
Technologie ist nicht nutzlos, sie ist tatsächlich sehr nützlich. Aber es ist nicht die Wahrheit, ein Konzept, das selbst für Menschen schwierig ist. Wenn Sie mit jemandem sprechen, der sehr kenntnisreich ist, einem Universalgelehrten, erhalten Sie eine komplizierte Antwort und wahrscheinlich eine wahrhaftigere Sichtweise. Ich denke, das größte Problem mit GPT-3 und anderen KI-Modellen ist, dass wir denken, dass sie überlegen sind, nur weil sie komplizierte und teure Maschinen sind. Das Problem besteht nicht darin, sie zu benutzen, sondern zu denken, dass sie alles wissen, obwohl sie tatsächlich nur einen kleinen Teil, 5 % der Realität, kennen.
„Social-Media-Fan. Bier-Fan. Bacon-Junkie. Stürzt oft hin. Ärgerlich bescheidener Reise-Guru.“