Por Néstor Estévez
Aunque hace mucho tiempo que se usa, en días recientes ha estado muy en boga en el país, además de ser tratada como algo que ha de venir, la denominada Inteligencia Artificial.
¿De qué estamos hablando? Para entenderlo mejor, revisemos un poco. Para 2004, en un artículo publicado bajo la firma de John McCarthy, se definía la Inteligencia Artificial como “la ciencia y la ingeniería de la fabricación de máquinas y programas informáticos inteligentes”.
A eso se agregaba que la Inteligencia Artificial estaba relacionada con una tarea similar a la de “usar computadoras para entender la inteligencia humana”. Pero McCarthy iba un poco más allá, agregaba que “la Inteligencia Artificial no tiene que limitarse a métodos que son biológicamente observables".
Vamos un poco más atrás. Hace más de setenta años se dio a conocer un trabajo trascendental de un hombre al que se le considera el "padre de la informática": el estudioso británico Alan Turing.
En un artículo titulado Maquinaria computacional e inteligencia ("Computing Machinery and Intelligence"), en 1950, Turing se hacía una interesantísima pregunta: ¿Pueden pensar las máquinas? De ahí partió el estudioso para legarnos lo que hoy se conoce como la "Prueba de Turing", en la que un evaluador humano intenta distinguir entre la respuesta textual de una computadora y la de un ser humano.
Como se puede notar, no es un asunto nuevo. Lo que ocurre es que la inmensa mayoría solo se limita a seguir el asunto “desde las gradas”, y muchísima gente ni siquiera se ha enterado de que “hay juego”. Por eso tanta gente se limita a discutir si la robot Sophia dijo o no dijo. Por eso, para la inmensa mayoría, el asunto se queda a nivel de entretenimiento y banalidad.
La Inteligencia Artificial (IA) es un campo de la informática que se enfoca en la creación de algoritmos y sistemas que pueden realizar tareas que normalmente requieren inteligencia humana, como la percepción visual, el reconocimiento del habla, la toma de decisiones y la resolución de problemas.
Lo que pasa es que la inmensa mayoría de la gente apenas llega a “guglear” y a quedarse con lo primero que “le aparece”. Es más, muchísima gente ni siquiera se ha percatado de que existe la denominada “Deep Web” o web profunda, a la que no todo el mundo tiene acceso y por la que circulan tanto valiosísimas como terriblemente dañinas informaciones.
Pues algo similar ocurre con la Inteligencia Artificial, que se divide en dos categorías principales: la IA débil o estrecha y la IA fuerte o general. La IA débil se utiliza para realizar tareas específicas, mientras que la IA fuerte es capaz de realizar cualquier tarea intelectual que un ser humano pueda hacer.
Los métodos utilizados en la Inteligencia Artificial incluyen el aprendizaje automático, el procesamiento del lenguaje natural y la visión por computadora. La Inteligencia Artificial tiene una amplia gama de aplicaciones en la vida cotidiana, desde los asistentes virtuales hasta los sistemas de diagnóstico médico y los vehículos autónomos.
Visto esto, se puede deducir que la Inteligencia Artificial no es buena ni mala. Se trata de si la usamos o “nos usan” con ella. Para asegurarnos de que sea realmente buena, ante la acostumbrada tendencia a “cogerlo suave”, lo que incluye evitar eso de “pensar”, lo primero sería evitar que la Inteligencia Artificial sea solo aprovechada por quienes, conociendo ese modo de ser tan generalizado, se dediquen a “dar riendas sueltas” a sus posibilidades de seguir aprovechándose del desconocimiento de los demás.
Por eso urge invitar a Cicerón, para que nos recuerde que “Pensar es como vivir dos veces”; a Confucio, hombre convencido de que “Aprender sin pensar es inútil. Pensar sin aprender, peligroso”; a Leonardo Da Vinci, con su idea de que ”Quien poco piensa, se equivoca mucho”.
Finalmente, sirve de gran ayuda René Descartes, con su contundente “Pienso, luego existo”. Lo otro sería cosa de asegurarnos de que mantenemos y mejoramos dos condiciones: el trato que dispensamos a los demás y nuestra capacidad de pensar, preferiblemente con cabeza propia.
No hay comentarios: