• #220: AI på afveje

  • Mar 10 2025
  • Duración: 1 h y 7 m
  • Podcast

  • Resumen

  • Hvordan får vi AI til at opføre sig pænt? Det er skide svært og måske ikke noget vi kommer til at løse en gang for alle.


    Kilder:

    Gender Bias in Hiring: An Analysis of the Impact of Amazon's Recruiting Algorithm

    https://www.researchgate.net/publication/373896468_Gender_Bias_in_Hiring_An_Analysis_of_the_Impact_of_Amazon's_Recruiting_Algorithm

    Pause Giant AI Experiments: An Open Letter

    https://futureoflife.org/open-letter/pause-giant-ai-experiments/

    ALIGNMENT FAKING IN LARGE LANGUAGE MODELS

    https://assets.anthropic.com/m/983c85a201a962f/original/Alignment-Faking-in-Large-Language-Models-full-paper.pdf

    https://futureoflife.org/open-letter/ai-principles/


    Hvis du vil være med til at optage live med os på Discord kan du

    støtte os på 10er og blive en af vores kernelyttere https://vudfordret.10er.app

    Du kan også tjekke vores webshop: bit.ly/vushop. Der er en

    hønsetrøje!

    Send os vanvittig videnskab eller stil et spørgsmål på facebook,

    Instagram eller vudfordret@gmail.com

    Tak til Christian Eiming for disclaimer.

    Tak til Barometer-Bjarke for Gak-O-meteret.

    Husk at være dumme 🧠


    Hosted on Acast. See acast.com/privacy for more information.

    Más Menos

Lo que los oyentes dicen sobre #220: AI på afveje

Calificaciones medias de los clientes

Reseñas - Selecciona las pestañas a continuación para cambiar el origen de las reseñas.