Por: Radhamés Fernández
https://www.linkedin.com/in/radhafernandez
Si bien es cierto que ChatGPT y las demás tecnologías en esa línea de Inteligencia Artificial, parecieran un apoyo a diferentes circunstancias, proyectos o procesos que enfrentamos en las organizaciones, también debemos advertirnos de no tomar decisiones o apoyarnos en sus resultados a ciegas. Y es que la IA es «inteligente», pero la flexibilidad crítica que ofrece el recurso humano tiene un valor inherente. Además, debemos conocer que estas aplicaciones, si se les pudiera llamar así, dependen del “prompting”, es decir, de la capacidad que tengamos de articular correctamente nuestras necesidades, para una posterior salida de resultados o “output”, que no es más que el planteamiento inteligente que realiza la IA con la información que hemos suministrado. Es por esto que se habla de los nuevos “profesionales del prompting” (algo así como lo hay hoy día con los expertos en búsquedas de Google).
Debemos manejar con ojo crítico los resultados arrojados por la IA. Estos nos parecen a veces más lógicos, mejor articulados, más cercanos a nuestros intereses. Necesitamos entender que estamos viviendo una transición entre la interacción activa con Internet y sus herramientas para la obtención de resultados y una interacción más pasiva con la una IA que maneja millones de modelos, escenarios y que aprende cada día de las informaciones que compila por sí misma o que nosotros le proveemos.
Un aspecto que pudiera pasar por desapercibido, es el hecho de que la IA no tiene un «regulador universal» más que sí misma. Y digo esto, porque, aunque las empresas que desarrollan estos productos usan protocolos que limitan el crecimiento descontrolado de la IA, esto solo quiere decir que dependemos de las barreras morales que tienen este tipo de empresas. Quienes comúnmente solo desean que su creación crezca y se desarrolle, a veces a expensas de algunos límites necesarios.
¿En el sentido legal, quien legisla sobre lo que puede o no puede la IA? ¿Los países están preparados para adoptar estas soluciones? Creo que aún no y nos falta mucho para que esto ocurra. Pongo un ejemplo sencillo: Un reclutador de recursos humanos introduce al prompt de la IA informaciones relacionadas sobre varios candidatos para un puesto de trabajo con la intención de que la IA arroje indicadores resultantes que le permitan tomar la mejor decisión de selección. Si este reclutador no sigue el factor humano, la letra plasmada en papel podría tomar preponderancia sobre un recurso u otro, sin seguir el factor intangible.
Otro aspecto y que abarca un uso más amplio de la IA que el simple “prompting” para resultados, es el hecho de quien controla la IA. ¿Si los humanos podemos saltarnos los protocolos y literalmente vulnerar sistemas y obtener beneficio de ello, que impedirá que la IA que salte sus propios protocolos? ¿Otra IA? ¿La policía de la IA?
El panorama es retador, pero el avance no se puede detener. Lo que sí podemos hacer es prepararnos para lo que viene y no tomar decisiones apresuradas sobre el uso institucional de herramientas que pudieran hacer que perdamos el control.