Der YouTuber Eddy Burback, bekannt für seine gesellschafts- und kulturkritischen Videoessays und Experimente, hat sich in einem Video mit dem Hype um Künstliche Intelligenz auseinandergesetzt. Darin testet er nicht nur verschiedene KI-Tools, sondern auch die selbstfahrenden Taxis von Weymo.
https://www.youtube.com/watch?v=IZ4HOCld5nY&t=1595s
In diesem äußerst sehenswerten Vortrag erklären Tristan Harris und Aza Raskin, welche Gefahren für unsere Gesellschaft durch KI entstehen.
https://www.youtube.com/watch?app=desktop&v=xoVJKj8lcNQ
Kann eine Künstliche Intelligenz vorurteilsbehaftet und unfair sein? Ja, das kann sie. Denn wie eine Künstliche Intelligenz denkt, das bestimmen ihre Trainingsdaten. Und die stammen überwiegend von Menschen, die eben auch rassistisch, sexistisch und voreingenommen sein können. IBM erklärt, wie genau solche Vorurteile in ein KI-Modell gelangen und was man dagegen tun kann.
Immer mehr Unternehmen wollen künstliche Intelligenz einsetzen, um Bewerbungsgespräche zu führen. Denn das spart Zeit und Personal. Außerdem verspricht künstliche Intelligenz mehr Objektivität bei der Bewertung der Bewerber, so heißt es. Denn die bisher eingesetzten KI-Systeme sind nicht wirklich fair und wirken auf Bewerber oft einschüchternd und beängstigend.
Wie Künstliche Intelligenz im Bewerbungsgespräch entscheidet
Das mittlerweile in Misskredit geratene deutsche KI-Start-up Aleph Alpha hat mit Luminous ein eigenes Sprachmodell entwickelt. Doch das sorgte bei Probeläufen für Sorgen. Denn es produzierte unter anderem rassistische Texte.
Dass Aleph Alphas KI auf verschiedene Anfragen rassistische und sexistische Texte ausgibt, könnte möglicherweise zum Problem für das Unternehmen und seine Kunden werden. "Es passt nicht zusammen, wenn Aleph Alpha behauptet, eines der ausgefeiltesten Sprachmodelle der Welt zu betreiben, und das dann solche Ergebnisse produziert", sagt Pegah Maham, Projektleiterin für Künstliche Intelligenz und Data Science bei der Stiftung Neue Verantwortung (SNV). "Es besteht die Gefahr, dass die Vorurteile, die aus diesen Äußerungen sprechen, auch in die Softwareanwendungen einfließen, die Aleph Alpha oder seine Kunden mit dem Sprachmodell entwickeln."