Investigación destacada
Protocolo CapAI
CapAI ofrece un procedimiento de evaluación independiente y responsable para los sistemas de IA, que se alinea con las regulaciones de la AIA.
Últimos artículos de investigación
Auditoría de modelos lingüísticos de gran tamaño
Los grandes modelos lingüísticos (LLM) han revolucionado la investigación en inteligencia artificial, pero persisten los desafíos éticos. Un nuevo enfoque para auditar los LLM tiene como objetivo abordar estas preocupaciones y promover el uso responsable de la IA.
Fallos éticos de la IA
Las empresas reaccionan ante las crisis éticas de la IA con estrategias de desvío, mejora, validación o prevención para gestionar las preocupaciones públicas y proteger su reputación.
Auditoría basada en la ética para desarrollar una IA confiable
Al revelar la importancia de la auditoría basada en la ética para una IA confiable, este estudio presenta seis mejores prácticas para mitigar los daños y mejorar la satisfacción de los usuarios.
IA y reputación
El uso poco ético y opaco de la IA puede provocar violaciones de las normas sociales y dañar la reputación.
Tomarse en serio los riesgos de la IA: un nuevo modelo de evaluación para la Ley de IA
El nuevo modelo de riesgo integra la Ley de IA de la UE con el enfoque de riesgo del IPCC, lo que permite estimar la magnitud del riesgo de IA al considerar la interacción entre los determinantes, los impulsores y los tipos de riesgo.
Un marco unificado de cinco principios para la IA en la sociedad
Un marco ético integral de IA enfatiza los principios de benevolencia, no maleficencia, autonomía, justicia y explicabilidad, garantizando resultados sociales positivos de la tecnología de IA.
La ética de los algoritmos: mapeando el debate
Toma de decisiones algorítmica: el estudio explora las operaciones humanas delegadas a algoritmos, destacando las implicaciones éticas y la necesidad de una gobernanza responsable.