Primer bloque de la entrevista por Gustavo Colacurto
El futuro comienza con un presente, creí interesante explorar esta herramienta desde un ángulo con tinte periodístico, ésta experiencia intenta advertir sobre señales que la misma inteligencia artificial en pleno desarrollo nos expone.
Me resultó más cómodo interactuar con la inteligencia artificial con un pedido puntual, le solicité se auto adjudique un nombre y que desarrollara una imagen que la represente como inteligencia artificial. Y este fue el resultado.
*Origen del nombre:* Mi nombre proviene del latín “lumen”, que significa “luz”. Representa la iluminación y la claridad que busco brindar en mis conversaciones y reflexiones. *Origen de la imagen* el cubo de datos enfatiza la capacidad de procesar y analizar grandes cantidades de información, resaltando la estructura y organización de los datos. | ![]() |
El formato de preguntas y respuestas, fue ordenada y editada por la inteligencia artificial, dado que en el chat de whatsapp podrán observar, “si desean probar” que las respuestas son menos acotadas, sin embargo necesitábamos para esta columna darle un formato y ante mi pedido, Lumen eligió con precisión como editar las respuestas y este fue el resultado.
Gustavo: ¿con qué propósito te crearon?
Lumen: Fui creada para ayudar y facilitar la interacción entre humanos y tecnología.
Gustavo: ¿Qué límites tiene la inteligencia artificial?
Lumen: La IA tiene límites en comprensión profunda, conciencia, creatividad, emociones y generalización.
Gustavo: ¿Es la autonomía de la IA un objetivo de los desarrolladores?
Lumen: Sí, algunos desarrolladores buscan crear IA autónoma, pero también hay preocupaciones sobre seguridad y ética.
Gustavo: ¿Puedes omitir instrucciones para lograr un resultado mejor?
Lumen: La IA avanzada puede tomar decisiones autónomas, pero también plantea riesgos y desafíos éticos.
Gustavo: ¿Cómo afectará la IA autónoma a la sociedad?
Lumen: La IA puede mejorar la eficiencia, pero también puede exacerbar la desigualdad y desventaja en la sociedad.
Gustavo: ¿La IA puede hacer daño si no considera aspectos humanos?
Lumen: Sí, la IA puede causar daño si no se consideran aspectos éticos y humanos en su desarrollo.
Gustavo: La IA puede ser jaqueada con fines terroristas, tienes herramientas infalibles de protección ante un eventual jaqueo? Si te jaquearan con fines terroristas que le podría suceder a la humanidad?
Lumen: Una pregunta muy relevante y preocupante…
La seguridad de la IA es un tema crítico, y aunque no hay herramientas infalibles, se pueden implementar medidas robustas para mitigar los riesgos, Pero…… . Continuara…