Investigación  destacada

Últimos artículos de investigación

Auditoría de modelos lingüísticos de gran tamaño

Los grandes modelos lingüísticos (LLM) han revolucionado la investigación en inteligencia artificial, pero persisten los desafíos éticos. Un nuevo enfoque para auditar los LLM tiene como objetivo abordar estas preocupaciones y promover el uso responsable de la IA.

Fallos éticos de la IA

Las empresas reaccionan ante las crisis éticas de la IA con estrategias de desvío, mejora, validación o prevención para gestionar las preocupaciones públicas y proteger su reputación.

Auditoría basada en la ética para desarrollar una IA confiable

Al revelar la importancia de la auditoría basada en la ética para una IA confiable, este estudio presenta seis mejores prácticas para mitigar los daños y mejorar la satisfacción de los usuarios.

IA y reputación

El uso poco ético y opaco de la IA puede provocar violaciones de las normas sociales y dañar la reputación.

Tomarse en serio los riesgos de la IA: un nuevo modelo de evaluación para la Ley de IA

El nuevo modelo de riesgo integra la Ley de IA de la UE con el enfoque de riesgo del IPCC, lo que permite estimar la magnitud del riesgo de IA al considerar la interacción entre los determinantes, los impulsores y los tipos de riesgo.

Un marco unificado de cinco principios para la IA en la sociedad

Un marco ético integral de IA enfatiza los principios de benevolencia, no maleficencia, autonomía, justicia y explicabilidad, garantizando resultados sociales positivos de la tecnología de IA.

La ética de los algoritmos: mapeando el debate

Toma de decisiones algorítmica: el estudio explora las operaciones humanas delegadas a algoritmos, destacando las implicaciones éticas y la necesidad de una gobernanza responsable.
Suscríbase a nuestro boletín para estar al día de las novedades y lanzamientos.
Al suscribirse acepta nuestra Política de privacidad y da su consentimiento para recibir actualizaciones de nuestra empresa.
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.