Ayuda
Ir al contenido

Dialnet


Epistemología y ontología en Ciencia: el reto de la Inteligencia Artificial

  • Autores: Santiago Cuéllar Rodríguez
  • Localización: Anales de la Real Academia Nacional de Farmacia, ISSN-e 1697-4298, ISSN 0034-0618, Vol. 89, Nº. 3, 2023, págs. 379-386
  • Idioma: español
  • Enlaces
  • Resumen
    • La brecha entre predictibilidad y comprensibilidad amenaza todo el proyecto científico porque los modelos matemáticos de los procesos, alimentados por enormes cantidades de datos de origen muy diverso, proporcionan resultados excepcionalmente precisos pero, al mismo tiempo, ocultan la explicación de los procesos. El conocimiento de “qué sabemos” de la ontología es tan relevante en ciencia como el de “cómo sabemos” y el de “cuánto sabemos” de la epistemología. La inteligencia artificial (IA) implica la comprensión científica de los mecanismos que subyacen al pensamiento y la conducta inteligente, así como su encarnación en máquinas capacitadas por sus creadores de razonar en un sentido convencional. Su formulación “débil” se refiere al empleo de programas informáticos complejos, diseñados con el fin de complementar o auxiliar el razonamiento humano para resolver o completar complejos problemas de cálculo, de mantenimiento de sistemas, de reconocimiento de todo tipo de imágenes, de diseño, de análisis de patrones de datos, etc., muchos de los cuales serían prácticamente inabordables mediante procedimientos convencionales; pero todo ello sin incluir capacidades sentientes o éticas humanas, que sí serían objeto de una – por ahora – inexistente IA “fuerte”, aquella que igualaría o incluso excedería la inteligencia sentiente humana. La vulgarización de la IA “generativa”, desarrollada para crear contenido – texto, imágenes, música o vídeos, entre otras muchas áreas – a partir de información previa, está contribuyendo a consolidar popularmente la idea errónea de que la actual IA excede el razonamiento a nivel humano y exacerba el riesgo de transmisión de información falsa y estereotipos negativos a las personas. Los modelos de lenguaje de la inteligencia artificial no funcionan emulando un cerebro biológico sino que se fundamentan en la búsqueda de patrones lógicos a partir de grandes bases de datos procedentes de fuentes diversas, que no siempre están actualizadas ni depuradas de falsedades, de errores ni de sesgos conceptuales o factuales, tanto involuntarios como interesados. Y la IA empleada en ciencia no es ajena a estas limitaciones y sesgos. Una cuestión particularmente sensible es la posibilidad de utilizar la IA generativa para redactar o incluso inventarse artículos científicos que llegan a pasar desapercibidos por los revisores por pares de las revistas científicas más prestigiosas del mundo, apuntando a un problema más aún profundo: los revisores por pares de las revistas científicas a menudo no tienen tiempo para revisar los manuscritos a fondo en busca de señales de alerta y, en muchos casos, además carecen de recursos informáticos adecuados y formación especializada.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno