Poca gente lo conoce, pero la Universidad de Cambridge cuenta con un Centro para el Estudio del Riesgo Existencial. Stuart Russell es un científico que trabaja tanto para esta institución como para la Universidad de California, en Berkeley, y acaba de hacer unas declaraciones inquietantes sobre el futuro de la inteligencia artificial.
Para Russell, si se utiliza inadecuadamente, la inteligencia
artificial puede ser tan peligrosa como las armas nucleares: "Desde el
principio, el principal interés de la tecnología nuclear
fue una fuente inagotable de energía.
Creo que hay una analogía
razonable entre una cantidad ilimitada de energía y cantidades
ilimitadas de inteligencia. Ambas perspectivas parecen maravillosas
hasta que uno piensa en los posibles riesgos”, advierte; “la
investigación en el campo nuclear se llevó a cabo con el objetivo de
producir una nueva fuente de energía; los científicos también sabían que
podría ser utilizada para crear armas de gran potencia”.
Russell, que aludió a los robots autónomos creados por compañías como Boston Dynamics,
considera que los científicos informáticos deberían ser muy estrictos
al definir los objetivos de sus investigaciones sobre inteligencia
artificial. En abril, el profesor Russell intervino en la convención
sobre Armas no Convencionales organizada por la ONU en Ginebra.
“No tengo noticia de ningún gran movimiento que reclame una regulación sobre la inteligencia artificial, porque no sabemos cómo habría que escribir esa legislación”, afirma Russell. Sin embargo, un grupo de científicos
entre los que se encuentra el profesor Stephen Hawking, se sumó
recientemente a una carta abierta en la que hacen un llamamiento en el
que se alerta sobre la necesidad de garantizar que el impacto de la
inteligencia artificial sobre la humanidad sea positivo.
0 comentarios:
Publicar un comentario