El artículo de El País examina dos metáforas regulatorias para la inteligencia artificial: los guardarraíles y las correas. El País Los guardarraíles representan reglas estrictas, normas rígidas e intervenciones legales definidas de antemano, como las que plantea el Reglamento Europeo de IA, para evitar daños y usos indebidos. El País Pero el autor señala que esa rigidez tiene límites: la IA es altamente dinámica, evoluciona rápido y sus usos varían tanto que no siempre es posible prever todos los riesgos. El País
En contraste, el modelo de las correas —similar a pasear un perro— propone una regulación más flexible, pero siempre bajo supervisión humana constante. El País Esto implica auditorías, transparencia, responsabilidad en todas las etapas: entrenamiento, pruebas, validación. El País Se usan ejemplos de incidentes reales, como un coche autónomo que atropella a un peatón o casos de influencias nocivas en redes sociales, para mostrar cómo una vigilancia adaptativa podría mitigar riesgos. El País
El estudio, liderado por Cary Coglianese de la Universidad de Pensilvania, enfatiza que ni uno ni otro modelo es perfecto por sí solo. Los guardarraíles quizá impidan innovación, mientras que las correas requieren una vigilancia continua y que los reguladores, empresas y sociedad se comprometan a mantener controles efectivos. El País Además, se subraya que las diferencias legales y culturales entre EE.UU. y Europa juegan un papel importante en cómo se pueden adoptar estos modelos con éxito. El País




