Era una conversación recurrente de bar. Amigas y amigos relacionadas con determinados sectores productivos industriales y los medios de comunicación, alrededor de unas cervezas o vinos. “Vamos hacia un mundo completamente diferente”, decían unas. “¿Sabéis cuántos puestos de trabajo van a desaparecer en los próximos años?”, preguntaban otros. “El que no sea capaz de aportar una mínima solución creativa a determinados problemas en su trabajo está condenado”, sentenciábamos todos.
Sí. Estábamos hablando de la Inteligencia Artificial (IA), y además lo hacíamos antes de que el mundo se paralizara por una pandemia. Si ya era difícil mantener una postura optimista entonces, ahora es incluso más complicado. Sus aplicaciones y beneficios son innegables en campos como la medicina personalizada o de precisión. Mejora productos, servicios y experiencias a todos los niveles, y aún así sus consecuencias éticas y jurídicas nos asustan. Y creo que con razón.
La intervención de Beatriz González en su charla TEDX intenta sacudirnos ese temor. “Las revoluciones nos asustan, pero también traen oportunidades”, dice, en referencia a la que todos parecen coincidir en llamar la actual Revolución de los Datos. Lo hace desde una posición de privilegio en la industria 4.0, y aventura que “no se destruirán empleos, sino que aparecerán otros nuevos porque se trata de una revolución para las personas”.
Esta afirmación, efectuada desde la industria, hemos de ponerla, necesariamente, en cuarentena. No pongo en duda que se crearán nuevos puestos de trabajo. Pero tampoco tengo duda alguna de que se destruirán y se destruyen más de los que se crean y se crearán. La visión de la industria 4.0 tiende a distorsionar nuestra percepción de la Inteligencia Artificial en su propio beneficio.
Ramón López de Mántaras sostiene que el verdadero peligro de la IA “no es la muy improbable singularidad tecnológica debida a la existencia de unas futuras hipotéticas superinteligencias artificiales, los verdaderos peligros ya están aquí”. Y hace referencia a la enorme cantidad de datos que “los algoritmos en que se basan los motores de búsqueda en internet, los sistemas de recomendación y los asistentes personales de nuestros teléfonos móviles” conocen de nosotros y nuestras preferencias pudiendo incluso “llegar a inferir el qué pensamos y cómo nos sentimos”.
Todo esto resulta una pérdida alarmante de privacidad. La cantidad de información voluntaria que generamos es la materia que nutre en gran medida a la IA y sus técnicas de análisis para que puedan ser empleadas por determinadas industrias y corporaciones en su propio beneficio, no para generar un valor añadido a la sociedad. “Para evitarlo deberíamos tener derecho a poseer una copia de todos los datos personales que generamos, controlar su uso y decidir a quién le permitimos el acceso y bajo qué condiciones, en lugar de que estén en manos de grandes corporaciones sin poder saber realmente qué uso hacen de nuestros datos”, afirma López de Mántaras.
Por esta doble vertiente ética y jurídica es necesario afrontar una regulación seria de la IA que impida incluso su uso en determinadas circunstancias, como es el caso de las armas autónomas. El Libro Blanco de la IA de la Unión Europea es todavía un documento abstracto que habla de ecosistemas de excelencia y de confianza para afrontar riesgos que se limitan a difuminar “a la luz de lo que esté en juego”. Como si no lo supiéramos.
Coincido plenamente con López Mántaras que es imprescindible e ineludible dotar a la sociedad en su conjunto de las herramientas de conocimiento necesarias para evaluar los riegos que supone la innovación tecnológica asociada a la IA. Y esto debe hacerse desde edades tempranas, y de una forma pública, para evitar la consolidación de determinadas élites. Debe hacerse ya, y de la imprescindible mano de las ciencias sociales, humanas o como quieran llamarlas.
Comentarios
Publicar un comentario