Hace unos días comentábamos la noticia del proyecto de Inteligencia Artificial de Facebook que se “salió de control” creando su propio lenguaje, por lo que fue eliminada.
Ante esto resuenan con más fuerzas voces de científicos y visionarios que piden la regulación de esta tecnología, augurando que “es una de las mayores amenazas a las que se enfrentará la humanidad en el futuro cercano”.
Esto no sería preocupante de no ser porque estas intenciones de regulación vienen de mentes brillantes como el ya mencionado Elon Musk (el genio detrás de Tesla y SpaceX), el físico teórico Stephen Hawking, y el fundador de Microsoft, Bill Gates.
Entonces, ¿debería de regularse la inteligencia artificial?
Analistas como Enrique Dans considera que no debemos dejarnos llevar por este tipo de miedos. Aunque vienen de personas destacadas en ciencia o industria, no son particularmente expertos en temas de IA o investigación y desarrollo de la misma.
El problema de la regulación sobre una tecnología es que termina siendo restricción. Raras veces se desarrolla de manera adecuada, principalmente porque quienes buscan regular las investigaciones científicas las hacen con base en el desconocimiento de la materia.
Enrique Dans agrega que “plantear que sistemas regulatorios que resultan tan malos e ineficientes se apliquen a un conjunto de tecnologías con tanto potencial, y generar una especie de histeria colectiva en torno a la posibilidad de robots más inteligentes que las personas desplazándose por las calles y dedicándose a matar todo lo que se mueve, como si algo así fuese a llegar pasado mañana, me parece inadecuado y peligroso.”
¿Qué opinan? ¿No les suena algo familiar a la histeria que provocó la manipulación genética hace algunos años? Por lo pronto no han aparecido zombies comiendo cerebros por las calles, y esperemos que así siga.