El hombre está desarrollando tecnologías con un poder sin precedentes. ¿Pero evaluamos los peligros? Un grupo de científicos y programadores sí. Por Ana Tagarro / Fotos: Carlos Carrión y Fotolia

¿Sabe quién es Stanislav Petrov? “Pues es probable que usted y yo le debamos estar aquí, vivos, quiero decir”, asegura Sean O’Heigeartaigh. El 26 de septiembre de 1983, Stanislav Petrov -teniente coronel en las fuerzas de defensa aérea soviéticas- estaba de servicio en un búnker, con la misión de supervisar el servicio de alerta ante ataques nucleares. De repente, la alarma saltó. Informaba del lanzamiento de un misil de Estados Unidos. Y luego otro, y otro… hasta cinco luces parpadeando en el ordenador. Pese a la tensión del momento, Petrov pensó que aquello no tenía mucho sentido. Para empezar una guerra nuclear, cinco misiles eran pocos; y para ser un accidente, eran muchos. Debía de ser un error informático. Y así lo comunicó por radio. No era una decisión fácil de tomar. Unos días antes, los soviéticos habían derribado un avión de pasajeros coreano, y Ronald Reagan había hablado de represalias. Pero Petrov mantuvo la calma. Si no lo hubiera hecho, hoy no estaríamos aquí, en el Centro para el Estudio del Riesgo Existencial (CSER) en Cambridge, Inglaterra.

robots

Sean O’Heigeartaigh, director del Centro para el Estudio del Riesgo Existencial (Universidad de Cambridge)

En este centro se estudian las amenazas que pueden llegar a acabar con la humanidad. Y lo que resulta aún más inquietante es que quienes lo integran son precisamente algunos de los científicos e ingenieros implicados en el desarrollo de tecnologías potencialmente ‘peligrosas’, empezando por la inteligencia artificial. El CSER está financiado por uno de sus promotores, Jaan Tallinn, físico y programador estonio, a quien debemos Skype; pero también por varias fundaciones científicas, medioambientales y tecnológicas, la más conocida de las cuales es la de Elon Musk, famoso tanto por crear los coches eléctricos Tesla como por su empeño en ir a Marte.

“Es más amenazante para la humanidad nuestra propia actividad que el impacto de un asteroide”

Al frente del centro está Sean O’Heigeartaigh, uno de los autores del libro El próximo paso. La vida exponencial, que se acaba de publicar. O’Heigeartaigh nos cuenta la historia de Petrov antes de abordar los desastres que, potencialmente, nos esperan en un futuro no muy lejano.

Petrov estaba en lo cierto cuando dijo que se trataba de una falsa alarma. Más tarde se supo que el destello del sol en un ángulo inusual había disparado el sistema. Pero aquel no fue un incidente aislado. Durante la Guerra Fría, la humanidad estuvo al borde de la guerra nuclear en varias ocasiones. Y sobrevivió a ello por pura suerte. Ahora, la amenaza nuclear es solo una de nuestras preocupaciones…

XLSemanal. ¿Hemos llegado ya a un punto en el que necesitamos un centro para estudiar el riesgo existencial, es decir, enfrentarnos al fin de la humanidad?

Sean O’Heigeartaigh. Yo creo que sí. Es cierto que hay muchas otras cosas de las que preocuparse a corto plazo, pero debe haber gente que piense en cosas más ‘grandes’. Estamos desarrollando tecnologías muy poderosas, que lo van a ser aún más, y deberíamos ser capaces de analizarlas antes de que se conviertan en un problema. O incluso plantearnos si hay algún tiempo de ciencia o tecnología que sencillamente no deberíamos desarrollar.

XL. Antes de entrar en materia, ¿de qué plazo hablamos? ¿50 años, 500…?

S.O. De los próximos 100 años. Pero algunas de las cosas podrían suceder en los próximos 20 años y otras pueden no ocurrir nunca… Lo que está claro es que es más probable que la humanidad se vea amenazada por nuestras propias actividades que por el impacto de un asteroide contra la Tierra.

“No hay que legislar, sino concienciar a los científicos. ¿Cómo se regulan las ideas?”

XL. ¿Quiere decir que es más fácil que los robots gobiernen la Tierra que ser exterminados como los dinosaurios?

S.O. La posibilidad de que un asteroide choque contra la Tierra en este siglo es muy baja. En cuanto a los robots, los expertos discrepan, pero muchos consideran que en 20 o 30 años podríamos ser capaces de desarrollar inteligencia artificial a nivel humano, es decir, capaz de hacer todo lo que nosotros hacemos. Si no desarrollamos esa inteligencia con mucho cuidado, podría ser una catástrofe para la humanidad. Si lo hacemos con cuidado, puede ser lo mejor que hayamos hecho nunca porque nos ayudará a resolver muchos de los problemas a los que nos enfrentamos.

XL. ¿Y cómo se regula el desarrollo de la inteligencia artificial?

S.O. Es complejo. Una tecnología se puede regular cuando ya se ha desarrollado. Por ejemplo, se puede regular el uso de armas inteligentes. Decidir si se pueden usar robots en el campo de batalla. Esto ya se debate en la ONU. Igual que se estudia la responsabilidad derivada de las decisiones que toma un coche sin conductor. Pero una investigación es mucho más difícil de regular. ¿Cómo se regulan las ideas? No es tanto una cuestión de regulación como de concienciación de los científicos.

XL. De hecho, hablan incluso de concienciar a los hackers…

S.O. Sí, pero me gustaría dejar claro que aquí nadie está hablando de hacer ‘el mal’. Casi todo el mundo que trabaja en inteligencia artificial realmente quiere hacer un mundo mejor. Lo que ocurre es que incluso lo se hace para ‘el bien’ puede ir mal si no se planea con cuidado.

XL. Pues no quiero ni pensar en la manipulación de virus o la biología sintética…

S.O. Bueno, eso no es nuevo. Las armas biológicas existen desde hace tiempo. La viruela exportada por los ingleses a América ya era un arma biológica… pero del siglo XVIII. Por supuesto, hay que controlar que nada de lo que se investiga en ese campo se use para hacer el mal, pero es un enemigo conocido.

XL. Más novedosa es la geoingeniería. Cita usted experimentos inquietantes, como la ingeniería de aerosoles estratosféricos para reducir la cantidad de luz solar que llega a la Tierra. Un sistema para enfriar el planeta si fuese necesario, pero que en malas manos…

S.O. Sí, existen esos estudios, pero que quede claro que todavía no hay ensayos reales. En Google hay cientos de teorías de la conspiración sobre esto y no son verdad. Lo que es cierto es que hay científicos que creen que la geoingeniería es tan peligrosa que no deberíamos ni siquiera acercarnos a ella. Otros, en cambio, creen que se deben explorar todas las opciones que nos permitan frenar el cambio climático.

XL. Pues hay gente que sigue sin creer que el cambio climático esté ocurriendo, por ejemplo, el presidente de Estados Unidos. ¿Alguna sugerencia para convencerlo?

S.O. Francamente no veo cómo hacer que el actual presidente de Estados Unidos entienda nada.

XL. Bueno, admitamos que hay mucha gente que no ‘cree’ en el cambio climático. ¿Qué les diría?

S.O. Nosotros, más que a la gente, nos dirigimos a la comunidad científica. No es fácil que los riesgos tan a largo plazo calen en la población en general. Es difícil que alguien que está en el paro y tiene problemas para mantener a sus hijos se preocupe por la inteligencia artificial o la biología sintética. Por eso, yo creo que, más que ‘convencer’ a la gente, lo que tenemos que hacer es que las medidas para combatir el cambio climático sean efectivas y accesibles a todos.

XL. ¿A qué se refiere?

S.O. Por ejemplo, cuando la energía solar cueste lo mismo que el petróleo, entonces no importará si es limpia o no, la usaremos. Y lo mismo pasará con los coches eléctricos.

“Es el momento de actuar como un planeta y no como un puñado de países individuales”

XL. Y aún queda pendiente el ‘problemilla’ de las armas nucleares…

S.O. Sí, ahí están. Y hay gente con acceso a esas armas que podría tomar decisiones equivocadas. Esta situación en la que una sola persona puede tomar una decisión que nos afecta a todos debería erradicarse. Problemas como el cambio climático o el desarrollo tecnológico no pueden abordarlos un país por sí solo. Se necesita cooperación internacional y a largo plazo. Hay que actuar como un planeta y no como un puñado de países individuales.

XL. Me temo que corren malos tiempos para la colaboración internacional… ¿Ha visto las noticias últimamente? No es solo Trump, aquí han votado a favor del brexit

S.O. Conste que yo soy irlandés. No me culpen a mí… Pero el brexit no solo es malo para este país, es malo para la ciencia, para el planeta… En la comunidad académica no hay duda sobre esto. Por otro lado, cuando trabajas en riesgos globales desarrollas la perspectiva a largo plazo. Y piensas: ¿es el brexit peor que la Guerra Fría?

XL Entonces es usted optimista…

S.O. Absolutamente. No podría trabajar en esto si no lo fuese.

XL. Vamos, que usted no cree que la humanidad vaya a desaparecer.

S.O. Lo que yo creo es que si damos por hecho que la humanidad no va a desaparecer, entonces es cuando desaparecerá. Así que trabajemos juntos para que no ocurra. Porque, una vez abierta, la caja de Pandora es difícil de cerrar.


El centro  del CSER (Centro para el Estudio del Riesgo Existencial), cuyo director es Sean O’ Heigeartaigh, fue creado por el filósofo Huw Price, el programador Jaan Tallinn y el astrofísico Martin Rees. La idea surgió ‘por casualidad’ en 2011, cuando Huw coincidió con Tallinn en un taxi. El filósofo se sorprendió al ver a un informático joven alarmado por el desarrollo de la inteligencia artificial. Y decidió hacer de mediador con otros científicos. Varios encuentros después, el centro se constituía en Cambridge.


PARA SABER MÁS

El próximo paso. La vida exponencial. Libro publicado por BBVA dentro del proyecto OpenMind. Se puede descargar gratuitamente.