La inteligencia artificial se ha convertido en un medio de expresión de la cultura

Por: Alejandro Bassi

 “Las soluciones basadas en inteligencia artificial pueden dar la ilusión de operar de una manera muy parecida a como lo haría un humano, pero hay grandes diferencias.”

El término inteligencia artificial evoca instantáneamente la imagen dramática popularizada por escritores y guionistas de ciencia ficción —y también por algunos ensayistas— que la describen como un espejo de las capacidades intelectuales humanas, o a veces como una entidad que podría superarlas y convertirse así en un adversario imbatible. En el desarrollo de este verdadero mito le cabe parte de la responsabilidad a las previsiones triunfalistas de algunos científicos pioneros del campo. Por ejemplo,  Herbert Simon aseguró en 1965 que las máquinas serían capaces en veinte años de realizar cualquier trabajo dentro del alcance humano. 

Proyectos con horizontes maximalistas de esta envergadura se enmarcan en lo que ha pasado a llamarse inteligencia artificial general o inteligencia artificial fuerte.

La hipótesis fundamental es la factibilidad de construir mecanismos con habilidades cognitivas equivalentes a un humano que podrían resolver desde la base cualquier problema al que se vean enfrentados. Sin embargo, esto no es el tema central en el quehacer de la inmensa mayoría de los especialistas del área. Los objetivos son en realidad mucho más acotados, típicamente asociados a tareas específicas. Entonces, en el día a día: ¿Qué se entiende por inteligencia artificial?

¿Qué es la inteligencia artificial en la práctica?

Lo “artificial” es fácil de precisar: se trata simplemente del mecanismo que se pretende construir, esto es una máquina convenientemente programada. La máquina por excelencia es el computador digital que todos conocemos. Otro modelo de máquina muy utilizado son las redes neuronales que, contrariamente al computador digital, no ejecutan instrucciones elementales paso a paso, sino que se conciben como mecanismos masivamente paralelos con muchas unidades elementales que en general se organizan en capas conectadas secuencialmente. Sin embargo las redes neuronales y otros modelos alternativos de procesamiento se pueden implementar simulándolos en un computador digital clásico, por lo que no hay pérdida de generalidad en restringirse a este último.

La hipótesis fundamental es la factibilidad de construir mecanismos con habilidades cognitivas equivalentes a un humano que podrían resolver desde la base cualquier problema al que se vean enfrentados.

La atribución de “inteligencia” a una máquina programada se ha justificado históricamente por el tipo de problema abordado. En general se asocia a soluciones que involucran un alto grado de flexibilidad en las acciones llevadas a cabo para maximizar las posibilidades de éxito en la tarea propuesta. Por ejemplo, un sistema de contabilidad no se considera inteligente, pero uno que juega ajedrez sí. La diferencia radica en que la contabilidad sigue reglas preestablecidas que se pueden codificar de antemano, mientras que para jugar bien al ajedrez hay que elegir la siguiente jugada analizando una situación compleja que además va evolucionando a lo largo del juego. Esta noción de inteligencia suele basarse en una intuición antropocéntrica, habría inteligencia artificial toda vez que un humano enfrentado al mismo problema deba utilizar su propia inteligencia natural para resolverlo. Así, una máquina demostraría inteligencia en la medida que su desempeño fuera equivalente al de un humano en las mismas circunstancias (ya en 1950 el test de Turing proponía un criterio similar aplicado a una tarea de diálogo en lenguaje natural). Aunque puede ser una aproximación útil, esta concepción no es técnicamente precisa ya que no se refiere a lo que tiene de computacionalmente específico la inteligencia artificial 

Las técnicas de inteligencia artificial responden a la necesidad de administrar los elementos de información cuando los problemas abordados no permiten el análisis exhaustivo requerido para una programación estándar.”

(…) una máquina demostraría inteligencia en la medida que su desempeño fuera equivalente al de un humano en las mismas circunstancias. (…)

¿Por qué hablar de inteligencia artificial y no de computación a secas?

Un programa o algoritmo implementado en un computador opera esencialmente utilizando elementos de información para reconocer condiciones y tomar acciones apropiadas en cada condición posible. En una programación estándar todos los elementos de información deben ser tomados en cuenta, y si falta alguno se considera un error de programación. Claramente así se da en un sistema de contabilidad, no se admite ninguna licencia para apartarse de un respeto estricto a las reglas del problema que deben ser programadas con total exactitud. Este esquema algorítmico exhaustivo, o de fuerza bruta, no se puede sostener cuando se abordan problemas de inteligencia artificial.

Las técnicas de inteligencia artificial responden a la necesidad de administrar los elementos de información cuando los problemas abordados no permiten el análisis exhaustivo requerido para una programación estándar. En el caso del ajedrez, aunque en principio es posible explorar todas las posibilidades, en la práctica en vez de tomar una decisión en minutos se necesitarían millones de años (y quizás mucho más).  En otros casos, por ejemplo para un sistema de pilotaje de un vehículo autónomo que debe decidir si conserva o modifica dirección y velocidad, ni siquiera queda claro qué podría ser esa información exhaustiva.

Ilustración: Pixabay

“Al limitar la necesidad de información se abre la posibilidad a soluciones prácticas para problemas que de otra manera serían inabordables.”

En qué consiste la inteligencia de las máquinas

En general, un sistema de inteligencia artificial se caracteriza por su capacidad de focalizar el poder de cómputo en los elementos de información más relevantes para tomar buenas decisiones. Desde un punto de vista técnico, podemos llamar “inteligencia” precisamente a esa capacidad: a mayor focalización y mayor calidad del resultado, más inteligencia. Al limitar la necesidad de información se abre la posibilidad a soluciones prácticas para problemas que de otra manera serían inabordables. Sin embargo, contrariamente al método algorítmico exhaustivo, hay que aceptar que las soluciones no serán perfectas.

En el caso del ajedrez, puede que el programa no siempre obtenga la victoria, pero si gana con una probabilidad comparable a un buen jugador humano podemos considerar que cumple con la exigencia de calidad. En el caso de pilotaje automático no se puede eliminar la posibilidad de accidentes, pero es posible reducir su probabilidad de tal manera que el riesgo sea aceptable, quizás con un nivel de exigencia sustancialmente mayor que para un conductor humano. Cuando se procede a construir soluciones computacionales de estas características, se está aplicando un método heurístico (también se habla de racionalidad acotada) que se contrapone al método algorítmico exhaustivo.

En general, un sistema de inteligencia artificial se caracteriza por su capacidad de focalizar el poder de cómputo en los elementos de información más relevantes para tomar buenas decisiones.

El Dr Alejandro Bassi es docente del próximo Diplomado en Inteligencia Artificial y Conducta Humana (DIACH) , que se realizará conjuntamente con la Universidad de Talca y la Fundación DICTA. Para más información sobre fechas, malla curricular, pincha en DIACH.

Las soluciones basadas en inteligencia artificial pueden dar la ilusión de operar de una manera muy parecida a como lo haría un humano, pero hay grandes diferencias. Por ejemplo, un jugador de ajedrez humano analiza solo una posición por segundo, mientras que una máquina, un millón. El humano demuestra por lo tanto capacidades heurísticas mucho más desarrolladas. En comparación, la máquina aplica bastante fuerza bruta y no tanta inteligencia. Esto no debe considerarse reprochable en la medida que los resultados sean apropiados. Si se pudiera imitar al humano, como lo propone la inteligencia artificial general, sería un gran avance, pero desde el punto de vista técnico lo importante es resolver pragmáticamente el problema de la mejor manera posible aprovechando al máximo el poder computacional disponible. 

Debido a que la programación directa de heurísticas resulta por lo general demasiado difícil, el auge de la inteligencia artificial ha sido posible en gran medida gracias a un enfoque indirecto que involucra aprendizaje automático. Uno de los esquemas más prolíficos consiste en explotar datos representativos del problema abordado para “entrenar” redes neuronales artificiales. Lo usual es que los datos se refieran a casos donde una configuración está asociada a un resultado, por ejemplo, un conjunto de síntomas y signos clínicos asociado a la presencia de una enfermedad. El objetivo del entrenamiento es ajustar la red neuronal para reproducir estas asociaciones, modulando la fuerza o peso de las conexiones entre las unidades elementales de la red. Esto se conoce como aprendizaje supervisado (y cuando la red está constituida de muchas capas se habla de aprendizaje profundo). Una red entrenada así producirá para una configuración dada un resultado que se puede interpretar como una generalización estadística de los datos utilizados en el entrenamiento.

El Dr Alejandro Bassi es docente del próximo Diplomado en Inteligencia Artificial y Conducta Humana (DIACH) , que se realizará conjuntamente con la Universidad de Talca y la Fundación DICTA. Para más información sobre fechas, malla curricular, y más, puede pinchar en DIACH

Las  redes neuronales de la IA

Fuente foto: Pixabay

(…) desde el punto de vista técnico lo importante es resolver pragmáticamente el problema de la mejor manera posible aprovechando al máximo el poder computacional disponible.”

Las redes neuronales con aprendizaje supervisado han demostrado su eficacia en muchas tareas, a veces con resultados que han sorprendido a los propios especialistas encargados de la implementación. Entre sus aplicaciones se destacan las de procesamiento de lenguaje natural, que apuntan a un aspecto central de la cognición humana. Una de las maneras de enfrentar esta tarea es mediante modelos de lenguaje cuyo propósito es predecir la palabra siguiente (el resultado) de una secuencia de palabras dada (la configuración). Los datos de entrenamiento se extraen de textos digitalizados y lo que se obtiene como resultado son las probabilidades de ocurrencia de las palabras del léxico en función del contexto. Esta predicción estadística puede parecer demasiado simplista a primera vista, pero indirectamente la tarea de aprendizaje puede capturar muchos aspectos de alto nivel del lenguaje natural.

(…) la inteligencia artificial, quizás en la práctica su verdadera proximidad con lo humano sea cultural. La podemos concebir como un nuevo medio de expresión de la cultura con capacidades avanzadas de interacción

Sin embargo para lograr una calidad aceptable se requieren redes neuronales muy complejas y un conjunto de datos de gran tamaño, exigiendo muchos recursos computacionales y un gasto considerable de energía, lo que solo es alcanzable en un ámbito industrial a gran escala. Por ejemplo, hasta el 2020, uno de los modelos más avanzados, GPT-3, utiliza una red neuronal con 175 mil millones de parámetros y fue entrenado con un conjunto de 500 mil millones de palabras, para lo cual fue necesario el equivalente de 350 años de computador. A pesar que GPT-3 puede genera textos muy convincentes, también comete errores de sentido común que son evidentes para un humano. Entonces no estamos frente a una simulación con capacidades de razonamiento ni menos de conciencia que se podría adscribir a una inteligencia artificial general. En vez de la imagen antropomórfica ingenua que suele acompañar a la inteligencia artificial, quizás en la práctica su verdadera proximidad con lo humano sea cultural. La podemos concebir como un nuevo medio de expresión de la cultura con capacidades avanzadas de interacción.

Alejandro Bassi

Es Doctor en Ciencias de la computación de la  Université Paris XI. Igualmente es Magíster en ciencias de la computación, Universidad de Chile. Posee una amplia experiencia en procesamiento automático de datos aplicando técnicas de inteligencia artificial como redes neuronales, redes bayesianas y sistemas expertos, programados en diversos lenguajes (C, Java, R, Python, Lisp, etc.), y  en diversos campos, incluyendo reconocimiento de patrones, procesamiento de señales, análisis de EEG, visualización científica. Actualmente se desempeña como docente e investigador en la Universidad de Chile y el Instituto de Filosofía y Ciencias de la Complejidad, y es colaborador senior de DICTA.

Descargar PDF

Diagramación: Diana Martín, Oswaldo Romero

0 Comments

Submit a Comment

Su dirección de correo no se hará público. Los campos requeridos están marcados *

19 − three =

Contacto Revista DICTA

pserrano@dicta.cl

Copyright

©2020 Contenido abierto al público, distribuido bajo los términos de Licencia de atribución Creative Commons, que permite sin restricciones, distribución y reproducción por todo medio, mientras informe y mantenga créditos del autor original y fuente.