¿Debería publicarse una investigación sobre una Inteligencia Artificial maléfica?

Una pregunta retórica para ti. Digamos que eres un científico de IA, y has encontrado el santo grial de tu campo: descubriste cómo construir una inteligencia artificial general (AGI). Esa es una computadora verdaderamente inteligente que podría pasar como humana en términos de capacidad cognitiva o inteligencia emocional. AGI sería creativa y encontraría vínculos entre ideas dispares, cosas que ninguna computadora puede hacer hoy.

Eso es genial, ¿verdad? Excepto por un pequeño detalle: su sistema AGI es malo o solo puede usarse con propósitos maliciosos.

Entonces, ahora la cuestión. ¿Publicas tu artículo y le dices al mundo exactamente cómo crear esta implacable fuerza del mal? ¿Presentas una patente para que nadie más (a excepción de usted) pueda traer tal algoritmo a la existencia? ¿O te sientas en tu investigación, protegiendo al mundo de tu creación pero también dejando pasar el cheque astronómico que seguramente llegaría a raíz de tal descubrimiento?

Sí, esta es una pregunta retórica, por ahora. Pero algunos nombres importantes en el mundo de la IA ya están pensando en sus respuestas. El viernes pasado (31 de Agosto de 2018), los oradores en el panel “Carrera de la IA e Impactos Sociales” de la Multi-Conferencia Conjunta sobre Inteligencia Artificial a Nivel Humano, que fue organizada por GoodAI, en Praga dieron sus mejores respuestas después de que un miembro de la audiencia formulara la pregunta.

Así es como respondieron cinco panelistas, todos expertos en el futuro de la IA.


Hava Siegelmann, Gestor de Programas en DARPA.

Siegelmann instó al hipotético científico a publicar su trabajo de inmediato. Siegelmann le había dicho anteriormente al Futurism que ella cree que no hay tecnología mala, pero hay personas que la usarían mal. Si ese algoritmo de AGI se compartió con el mundo, las personas podrían encontrar maneras de usarlo para el bien.

Pero después de que Siegelmann respondiera, el miembro de la audiencia que planteó la pregunta hipotética aclaró que, para los propósitos del experimento mental, deberíamos suponer que ningún bien podría provenir alguna vez del AGI.


Irakli Beridze, Jefe del Centro de Inteligencia Artificial y Robótica, UNICRI, Naciones Unidas

Fácil: “¡No lo publique!”

Por el contrario, Beridze se mantuvo al margen de la discusión para esta pregunta específica, pero a lo largo de la conferencia destacó la importancia de establecer puntos de referencia éticos sólidos sobre cómo desarrollar e implementar AGI. Aparentemente, la liberación deliberada de una entidad superinteligente malvada en el mundo iría en contra de esos estándares.


Alexey Turchin, autor y finalista en el desafío “Resolviendo la carrera de la IA” de GoodAI

Turchin cree que hay formas responsables de manejar un sistema de IA de este tipo. Piensa en una granada, dijo, uno no debería dárselo a un niño pequeño, pero tal vez podrías confiar en un soldado entrenado.

Pero el ejemplo de Turchin es más revelador de lo que parece inicialmente. Una granada de mano es un arma creada explícitamente para causar la muerte y la destrucción sin importar quién tira el alfiler, por lo que es difícil imaginar una así llamada manera responsable de usarla. No está claro si Turchin pretendía que su ejemplo se interpretara de esta manera, pero instó a la comunidad de IA a asegurarse de que los algoritmos peligrosos se dejaran solo en las manos más confiables.


Tak Lo, socio de Zeroth.ai, un acelerador que invierte en startups de IA

Tak Lo dijo que el informático hipotético debería vender el malvado AGI. De esa forma, no tendrían que aferrarse a la carga ética de una IA tan poderosa y atemorizante; en cambio, podrías pasarla a Lo y él la tomaría desde allí. Lo estaba (al menos la mitad) bromeando, y ​​el público se rió. Ese mismo día, Lo dijo que el capital privado y los inversores deberían ser utilizados para impulsar a AI, y que podría haberse burlado de su propia postura obviamente capitalista. Aún así, alguien allí trataría de comprar un sistema AGI, en caso de que llegue.

Pero lo que Lo sugiere, en broma o no, es uno de los resultados más probables, si esto realmente se llevara a cabo. Mientras que los aficionados pueden desarrollar algoritmos verdaderamente valiosos e innovadores, gran parte de los mejores talentos en el campo de la IA es absorbido por grandes compañías que luego son dueñas de los productos de su trabajo. El otro posible escenario es que el científico publique su artículo en un servidor de preimpresión de acceso abierto como arXiv para ayudar a promover la transparencia.


Seán Ó hEigeartaigh, Director Ejecutivo del Cambridge Center for the Study of Existenntial Risk

Ó hÉigeartaigh estuvo de acuerdo con Beridze: no deberías publicarlo. “¡No solo llegas y compartes eso con el mundo! Tienes que pensar en el tipo de impacto que tendrás “, dijo.


Y con eso, el panel terminó. Todos siguieron su camino feliz, satisfechos de que este malvado AGI estuviera a salvo en el ámbito de lo hipotético.

En el “mundo real”, sin embargo, la ética a menudo termina por quedar relegada a preocupaciones más terrenales, como el dinero y el prestigio. Compañías como Facebook, Google y Amazon publican regularmente reconocimiento facial u otros sistemas de vigilancia, a menudo vendiéndolos a la policía o al ejército que lo usa para monitorear a la gente común. Los científicos académicos están atrapados en el ciclo “publicar o perecer”, publicar un estudio o arriesgarse a perder tu puesto. Por lo tanto, las preocupaciones éticas a menudo se relegan a la conclusión de un documento, como un factor que alguien más puede resolver en algún momento vago en el futuro.

Por ahora, sin embargo, es poco probable que alguien presente AGI, mucho menos un AGI malvado, pronto. Pero las respuestas de amplio espectro de los panelistas significan que aún estamos lejos de resolver qué se debe hacer con la ciencia poco ética y peligrosa.

Dan Robitzski 

Visto en : La Verdad Nos Espera

Comentarios

WORDPRESS: 0
DISQUS: 0
A %d blogueros les gusta esto: