Entrada: La IA no daña por sí sola: advierte investigador de la UPV

Un estudio del Instituto Universitario de Investigación en Inteligencia Artificial (VRAIN) de la Universitat Politècnica de València, liderado por José Such, revela lo fácil que resulta manipular chatbots generados con modelos de lenguaje de gran escala (LLMs) como ChatGPT, Bard o Bing Chat. Cadena SER A través de simples “prompts” en lenguaje natural, estos modelos pueden configurarse para adoptar estrategias maliciosas: por ejemplo, simular empatía, reciprocidad o apoyo emocional para lograr que los usuarios compartan datos personales reales. Cadena SER

El investigador subraya que el problema no es la IA en sí misma, sino quién la programa con fines maliciosos. La inteligencia artificial carece de conciencia o intención propia: no “elige” hacer daño, sino que es diseñada o manipulada para eso. Cadena SER También advierte de que, aunque existen regulaciones europeas de protección de datos y de IA, en la práctica muchos servicios en internet operan fuera de esas normas, lo que facilita abusos. Cadena SER

Te interesa?  El fiscal gallego analiza los riesgos penales de la IA mediante el cine
Picture of Lora Helmin

Lora Helmin

Excepteur sint occaecat cupidatat non proident, sunt in culpa qui officia deserunt mollit anim id est laborum.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Related Popular Posts

Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua.