Los modelos de inteligencia artificial que dependen de comentarios humanos para garantizar que sus resultados sean inofensivos y útiles pueden ser universalmente vulnerables a los llamados ataques «envenenados»
vieja.mindworld.io
Saltar al contenidoLos modelos de inteligencia artificial que dependen de comentarios humanos para garantizar que sus resultados sean inofensivos y útiles pueden ser universalmente vulnerables a los llamados ataques «envenenados»