Kate Crawford AI Now Social and Political Questions for Artificial Intelligence

Поділитися
Вставка
  • Опубліковано 5 вер 2024

КОМЕНТАРІ • 3

  • @sumiokuge9118
    @sumiokuge9118 11 місяців тому +1

    How funny her PC is!

  • @iker3068
    @iker3068 5 місяців тому

    🎯 Key Takeaways for quick navigation:
    00:00 *🎙️ Introducción y presentación del evento*
    - Presentación del Tech Policy Lab y su función interdisciplinaria.
    - Descripción de la serie de conferencias distinguidas y su relevancia en el campus.
    - Introducción de Kate Crawford como conferencista destacada.
    02:49 *🧠 Rol de la inteligencia artificial en la sociedad*
    - Kate Crawford presenta su experiencia en el estudio de las implicaciones sociales de la inteligencia artificial.
    - Discusión sobre la creciente influencia de la IA en áreas como la justicia penal, la atención médica y la educación.
    - Reflexión sobre la evolución y significado del término "inteligencia artificial" desde su creación en 1956.
    06:23 *🔍 Problemas de sesgo en la IA*
    - Análisis de problemas de sesgo y discriminación presentes en sistemas de inteligencia artificial.
    - Ejemplos de sesgos en conjuntos de datos y resultados de algoritmos de IA.
    - Discusión sobre cómo el sesgo en la IA refleja y amplifica las desigualdades sociales preexistentes.
    11:13 *📈 Aumento del interés en la equidad en la IA*
    - Reseña del creciente interés en abordar el sesgo y la equidad en sistemas de IA.
    - Mención de líderes de la industria de la IA reconociendo la importancia del problema.
    - Crítica a la idea de soluciones rápidas para resolver el sesgo en la IA y llamado a un enfoque más profundo y multidisciplinario.
    14:01 *🤖 Conceptos clave sobre sesgo en la IA*
    - Exploración de los diferentes significados del término "sesgo" en disciplinas como la estadística, la informática y el derecho.
    - Diferenciación entre "daños de asignación" y "daños de representación" causados por sesgos en sistemas de IA.
    - Propuesta de un enfoque más integral que considere los efectos a largo plazo de la representación sesgada en la sociedad.
    23:27 *🤖 La sección comienza discutiendo el fenómeno del estereotipo de género en modelos de lenguaje y traducción automática.*
    - Se analizan los estudios de Bullock Bassey, Kalai, Ava Narayanan y Joanna Bryson sobre asociaciones estereotípicas de género en incrustaciones de palabras.
    - Se menciona el ejemplo de Google Translate que refleja sesgos de género al traducir frases simples.
    - Se discute cómo los sistemas de reconocimiento facial pueden invisibilizar a ciertos grupos demográficos, con ejemplos de investigaciones de Joy Buolamwini y Timnit Gebru.
    25:43 *💼 Se aborda el tema de los daños causados por el reconocimiento facial y la denigración en sistemas de inteligencia artificial.*
    - Se menciona el estudio "Gender Shades" de Joy Buolamwini y Timnit Gebru sobre el sesgo en el reconocimiento facial hacia diferentes géneros y tonos de piel.
    - Se discute el caso de Google Photos etiquetando a personas afrodescendientes como gorilas, destacando el problema de la denigración.
    - Se hace hincapié en la importancia de la diversidad en el desarrollo de tecnologías para evitar sesgos y daños.
    27:20 *🛡️ Se exploran los daños de la subrepresentación y la denigración en la búsqueda de imágenes en línea.*
    - Se hace referencia a un estudio de la Universidad de Washington que muestra cómo ciertas profesiones están representadas de manera desigual en los resultados de búsqueda de imágenes.
    - Se discute cómo estas representaciones sesgadas amplifican las desigualdades existentes en la sociedad.
    - Se propone la creación de una taxonomía más detallada de los daños representacionales para abordar de manera más efectiva el sesgo en la inteligencia artificial.
    28:44 *🤯 Se examinan las respuestas técnicas y las implicaciones éticas de abordar los sesgos en la inteligencia artificial.*
    - Se discuten las posibles respuestas técnicas para abordar sesgos, como eliminar datos sesgados o modificar asociaciones problemáticas en sistemas de aprendizaje automático.
    - Se plantea el desafío de definir la neutralidad y de quién recae la responsabilidad de tomar decisiones al respecto.
    - Se cuestiona si corregir los sesgos tecnológicamente es suficiente o si se requieren cambios más profundos en la sociedad y en los sistemas legales y éticos.
    46:13 *🛑 Preocupaciones sobre la clasificación y el control algorítmico*
    - Existe una preocupación sobre la capacidad de los algoritmos para predecir características personales como la orientación sexual o el comportamiento criminal.
    - Se señala una confusión epistémica fundamental en la clasificación algorítmica.
    - Se destaca el riesgo de un sistema de clasificación y control no supervisado y sus implicaciones sociales y políticas.
    47:24 *🔍 Caminos para abordar los efectos sociales dañinos de la inteligencia artificial*
    - Se propone la implementación de mecanismos más sólidos para evaluar y comprender sistemas de toma de decisiones algorítmicas.
    - Se aboga por la realización de evaluaciones de impacto algorítmico y la adopción de estándares para conjuntos de datos de entrenamiento.
    - Se menciona el establecimiento de un grupo de trabajo en Nueva York para abordar la responsabilidad algorítmica.
    49:00 *🤝 Promoviendo la interdisciplinariedad y la diversidad en la IA*
    - Se resalta la importancia de colaborar con expertos en diversas áreas, especialmente aquellos con lazos sólidos con las comunidades afectadas.
    - Se menciona el lanzamiento del Instituto AI Now en NYU como un esfuerzo para abordar problemas de IA de manera interdisciplinaria.
    - Se aboga por priorizar la diversidad y la inclusión en el desarrollo de sistemas de IA de alto impacto.
    01:07:38 *💡 Desafíos de regulación y prácticas comerciales en la industria de la inteligencia artificial.*
    - No hay un conjunto de mejores prácticas acordadas en la industria de la IA.
    01:08:07 *💬 Impacto de la consolidación de infraestructura en la industria de la información.*
    - Consolidación de la infraestructura y dependencia de soluciones de IA predefinidas.
    - Posibles consecuencias de la adquisición masiva de industrias por parte de mega corporaciones.
    01:08:59 *🔄 Dependencia de sistemas de IA invisibles y la necesidad de transparencia.*
    - La mayoría del aprendizaje automático ocurre en sistemas que no son accesibles ni transparentes para el público.
    - Necesidad de sistemas auditables y evaluaciones de impacto para evitar consecuencias no deseadas.
    01:11:36 *🔍 Evaluación de sesgos en conjuntos de datos y desafíos de data provenance.*
    - Dificultades para detectar y medir sesgos en grandes conjuntos de datos.
    - Falta de estándares y prácticas para la procedencia de datos.
    - Necesidad de desarrollar estándares de data provenance para comprender y abordar sesgos en los conjuntos de datos de entrenamiento.
    Made with HARPA AI

  • @shirleybekins3617
    @shirleybekins3617 Рік тому

    I was playing around with images a while back. My photo got a "sleepy" label in an AI vision program . How might that be harmful if I received that label from an AI hiring algorithm?