11/11/2024 | News release | Distributed by Public on 11/12/2024 18:09
¿Cuáles son los retos y amenazas actuales de la inteligencia artificial (IA)?
Omar Tolentino, director de Ciberseguridad en el Tec de Monterrey, explicó que la inteligencia artificial (IA) es unaherramienta irremplazable en el contexto actual, pero indicó que esta no está exenta de fallas.
A pesar de que la IA todavía no ha alcanzado un nivel de autonomía total, el EXATEC Rhett Nieto, gerente de Tecnología y Ciberseguridad de FEMSA ARMUR, advierte que esta continúaevolucionando de manera vertiginosa semana tras semana.
Como parte de la Cybersecurity Week 2024, el EXATEC compartió con la audiencia como estatecnología es un elemento clave para la transformación del futuroque a su vez debe ser utilizado con su debido cuidado y ética.
Rhett Nieto fue uno de los panelistas durante la Semana de Ciberseguridad. Foto: Live Tec"El mejor activo que tenemos es el conocimiento. El conocimiento es nuestra primera y última línea de defensa ante el tipo de amenazas que puede traer la IA", expresó Tolentino como preámbulo a la charla de Nieto.
"Existen muchos beneficios alrededor de la adopción de la IA, como la innovación y la ventaja competitiva y las tomas de decisiones basadas en datos, pero eso también implica vulnerabilidades", aclaró Nieto.
Nieto compartió los retos que enfrentan las empresas al adoptar la IA:
"Se refiere a la manera en la que se incorporan soluciones de IA como parte de las infraestructuras tecnológicas y los sistemas de información que ya existen", explicó Nieto.
En dicho caso, el experto expresa como este proceso, a pesar de que es fundamental, va a requerir una alocación de tiempo y recursos adicionales.
De acuerdo con el experto, la demanda actual de profesionistas con formación en el uso de IA supera todavía a la ofertaen el mercado laboral.
"Esto dificulta el encontrar y retener talento para desarrollar e implementar soluciones de IA", explicó.
A medida que las empresas dependen más de datospara el desarrollo de sus estrategias de IA,más vulnerables son a ataques cibernéticosy robo de información.
"Las corporaciones tienen que asegurarse de que sus aplicaciones de IA respeten la privacidad de datosy eviten sesgos algorítmicos que puedan ser injustos o discriminatorios", enfatizó Nieto.
"La inserción de la IA puedegenerar temores entre los empleados", reflexionó Nieto.
Según Nieto, este miedo, usualmente proveniente de generaciones más avanzadas en edad, se da por lapercibida amenaza del reemplazo de sus roles por la IA.
En este punto, Nieto destaca la falta de regulación jurídica en cuanto al uso de IA, particularmente en México donde no hay leyes oficiales al respecto.
De tal forma, el especialista señala que el panorama en este sentido es ambiguo y, por ende, lassanciones ante el mal uso de IA pueden resultar complejas.
Nieto explica que un ataque proveniente de un modelo de lenguaje puede darse si el atacante logra manipular los prompts alimentados y con ello extraer información a través de chatbots, filtración de datos, emails, etc.
Un prompt es una instrucción o frase inicial que se le da a una inteligencia artificial o sistema generativo para guiar su respuesta o producción de contenido, como texto, imagen o código.
"El problema es que haybases de datos creadas para convencer a los modelosmás comerciales como ChatGPT, Gemini, etc., a que ejecuten acciones que no están programadospara realizar normalmente", explicó Nieto.
En este caso, el modelo se ve amenazado alintroducir sesgos o puertas traseras que comprometan su seguridad,efectividad o comportamiento bajo los lineamientos éticos programados.
"Todo depende de ¿cómo entrenaste al modelo y con qué datos le enseñaste a funcionar?Porque los datos pueden ser manipulados desde el inicio e incluso crear atajos secretos para ciertas personas", aclaró.
Esto puede impactar el proceso de toma de decisiones de un modelo, remarcó el experto, indicando quesi no se conocen los lineamientos que este sigue para actuar, es posible que estos puedan caer en faltas éticas.
"El ejemplo más claro está en lossistemas de seguridad que utilizan reconocimiento facial donde se han dado casos de discriminación racial automatizada que provenía desde el mismo sistema", compartió.
Desde la cara de una celebridad hasta la voz de tu empleador, el experto indica que los deepfakes son una de las amenazas más visibles de la IA generativaactualmente y su potencial para evolucionar puede ser preocupante.
"Con herramientas que incluso ya son gratuitas, una persona maliciosa puede crear una foto o video de una persona que nunca grabóo imitar la voz de alguien con tan solo unas muestras de audio", advirtió el experto.
En este escenario, expresó Nieto, los atacantes pueden interferir con el modelode manera en la que consuma una cantidad excesiva de recursos.
"Además de que va a impactar la calidad de servicio del modelo (al saturarse), el resultado más común es la generación de altos costos de funcionamiento", dijo el ponente.
Finalmente, ante un panorama de amenazas aparentemente infinito, el panelista alienta a las personas a no temerle a la IA,ya que simplemente es cuestión de:
Durante una semana del 4 al 8 de noviembre, expertos en ciberseguridad, tanto nacionales como internacionales compartieron sus conocimientos sobre amenazas, detección y tips para proteger datos y la integridad digital.
Los temas que se abordaron a través de 10 conferencias fueron: inteligencia artificial, navegación segura, tendencias de ciberseguridad en México, ransomware, estafas digitales, entre otras.
Puedes ver la retransmisión por LIVE.TEC: https://live.tec.mx/cbweek.
TAMBIÉN TE PUEDE INTERESAR: