El campo de la Inteligencia Artificial ha alcanzado nuevos horizontes. Dispositivos electrónicos con capacidad de aprender desde el comportamiento del usuario o incluso reconocer patrones como rostros o caracteres tan bien como los humanos.
Con estos avances en el campo de la Inteligencia Artificial nos acercamos a un punto en el tiempo que los futurólogos llaman de “singularidad”. Que se utiliza para denominar al momento cuando las máquinas superen la inteligencia promedio del ser humano. Existe preocupación de qué sucederá cuando se llegue a este punto. El futuro parece incierto y los expertos en el área difieren en dos posiciones opuestas. La primera posición presenta un escenario adverso donde el futuro de la humanidad corre un real peligro por el posible surgimiento de una o varias inteligencias artificiales sin control humano que puede conllevar una amenaza; y la segunda posición ve con optimismo el desarrollo y espera que el desarrollo tecnológico se convierta en una ayuda para el progreso de la humanidad con la asistencia de IA’s en tareas domésticas y profesionales. Personajes como Stephen Hawkins, Bill Gates y Nick Bostrom están en el primer grupo, y expertos como Elon Musk entre los del segundo grupo.
Los expertos en este campo ubican al punto de singularidad en algún punto entre los años 2035 y 2050. Hoy en día es posible entrenar una IA para realizar actividades básicas como reconocimiento facial, reconocimiento de escritura a mano alzada, que se hagan cargo de funciones específicas.
La preocupación surge cuando una IA supere el razonamiento humano, la hipótesis es que será capaz de auto mejorarse y desde ese punto los escenarios son inciertos. Lo que recomiendan expertos es que cada IA avanzada sea desarrollada en ambientes aislados con el propósito de que no tenga acceso a grandes cantidades de información disponible como Internet u otras redes con conocimiento avanzado. Además, que cada vez que se entrene o cree una IA se haga basado en los valores humanos, ya que se teme podría desarrollar sistemas de valores propios y que podrían estar en contradicción con los seguidos por los humanos. Por ejemplo, si el objetivo es proteger a la humanidad la IA podría llegar a la conclusión de que la mejor forma de protegerla es aislarla de todo contacto externo. Estas medidas pretenden aislar y así controlar un eventual desvío de los objetivos en la creación de una IA.
Raymond Kurzweil es uno de los principales futurólogos empeñados en generar conciencia acerca del futuro y la eventualidad de alcanzar el punto de singularidad. Es interesante lo que depara el futuro en el desarrollo de IA’s que puedan resultar en un crecimiento exponencial en investigación y desarrollo soportados por IA’s colaborando con los científicos. Los próximos 10 años serán claves en dilucidar el futuro de este campo particular con potencial de aportar soluciones globales a los problemas que actualmente enfrenta la humanidad.