Poca gente lo conoce, pero la Universidad de Cambridge cuenta con un Centro para el Estudio del Riesgo Existencial. Stuart Russell es un científico que trabaja tanto para esta institución como para la Universidad de California, en Berkeley, y acaba de hacer unas declaraciones inquietantes sobre el futuro de la inteligencia artificial.
Para Russell, si se utiliza inadecuadamente, la inteligencia 
artificial puede ser tan peligrosa como las armas nucleares: "Desde el 
principio, el principal interés de la tecnología nuclear
 fue una fuente inagotable de energía. 
Creo que hay una analogía 
razonable entre una cantidad ilimitada de energía y cantidades 
ilimitadas de inteligencia. Ambas perspectivas parecen maravillosas 
hasta que uno piensa en los posibles riesgos”, advierte; “la 
investigación en el campo nuclear se llevó a cabo con el objetivo de 
producir una nueva fuente de energía; los científicos también sabían que
 podría ser utilizada para crear armas de gran potencia”.
Russell, que aludió a los robots autónomos creados por compañías como Boston Dynamics,
 considera que los científicos informáticos deberían ser muy estrictos 
al definir los objetivos de sus investigaciones sobre inteligencia 
artificial. En abril, el profesor Russell intervino en la convención 
sobre Armas no Convencionales organizada por la ONU en Ginebra.
“No tengo noticia de ningún gran movimiento que reclame una regulación sobre la inteligencia artificial, porque no sabemos cómo habría que escribir esa legislación”, afirma Russell. Sin embargo, un grupo de científicos
 entre los que se encuentra el profesor Stephen Hawking, se sumó 
recientemente a una carta abierta en la que hacen un llamamiento en el 
que se alerta sobre la necesidad de garantizar que el impacto de la 
inteligencia artificial sobre la humanidad sea positivo.






0 comentarios:
Publicar un comentario