INTELIGENCIA ARTIFICIAL

Tecnología cibernética debe ayudar a crear un mundo mejor

Hay riesgos que deben ser tratados con cuidado, como las fake news, la desinformación, el desempleo, el impacto ambiental, la privacidad y los fraudes, entre otras

Tecnología cibernética debe ayudar a crear un mundo mejor

Foto: (Unsplash)

Viral 22/05/2024 17:50 Obed Coeto Actualizada 17:50
 

La evolución de la tecnología debe abarcar también un desarrollo de las reglas y los parámetros para que ésta se maneje sin afectar a las sociedades y a las personas, aseguró Brian Green, director de Ética Tecnológica en el Centro de Markkula de Ética Aplicada de la Universidad de Santa Clara (Estados Unidos), al reunirse con distintos líderes empresariales y academia con el objetivo de analizar el potencial del uso de la IA en las organizaciones desde la perspectiva de la ética corporativa. 

“La Inteligencia Artificial tiene el potencial para hacer del mundo un lugar mejor si se usa con responsabilidad y bajo estándares éticos que analicen y castiguen las malas prácticas. Por esta razón, es esencial impulsar en los líderes de negocios de México, la educación sobre IA”, sentenció. 

Dijo que hay riesgos en la Inteligencia Artificial que deben ser tratados con cuidado, como las fake news, la desinformación, el desempleo, el impacto ambiental, la privacidad y los fraudes, entre otras. 

Lee también: Dealers acribillan a quinceañero cuando regresaba de ver a su novia en CDMX, ya estaba amenazado

“En el corto plazo existen peligros. Muchas cosas podrían salir mal, pero si nos enfocamos en hacer esto bien, con ayuda de la IA tendremos una gran oportunidad para crear un mejor futuro para todos. Al fin y al cabo, los modelos de lenguaje actuales, a pesar de ser complejos, no son verdaderamente inteligentes”.

Puso por delante la ética de quienes alimentan esta tecnología a partir de una buena estructura que esté sujeta a lineamiento de buenas formas. 

“Hay que poner atención a lo que está sucediendo en las compañías de tecnología, cómo están operando y aplicando la ética, cómo es que llevan la teoría al campo práctico y qué resultados están obteniendo. Sin embargo, cuando hablamos de ética en IA no solo deben involucrarse las empresas, lo deben hacer en igual medida los gobiernos de cada país” y subrayo “la necesidad de que las organizaciones empiecen a pensar en la incorporación de un “Responsable uso ético de la tecnología” si queremos aprovechar el impacto de los avances en IA en la productividad de las organizaciones. Aquellas que cuenten con esta figura, aunada a una fuerte apuesta por la ciberseguridad, serán las que tomen verdadera ventaja competitiva de la transformación digital”.

En el foro organizado por NeedEd dijeron estar convencidos de que estas nuevas herramientas se deben aprovechar de manera correcta, “los líderes han de ser verdaderos especialistas en su uso, las habilidades técnicas son indispensables pero las habilidades blandas en IA son factor clave del éxito de la transformación digital. 

tecnologia-etica.jpg

Foto: (Unsplash)

La ética aplicada a uso de tecnología es una de las más relevantes “explica Gustavo Barcia, CEO de Needed, así como conferencista y especialista en tendencias digitales.

La diferencia es el factor humano, la racionalización de las cosas,, señaló Green, “los modelos de lenguaje son complejos, simulan la inteligencia humana y con ayuda de internet reúnen información y datos estadísticos para intentar responder de forma rápida a solicitudes. Cuando las personas hacen preguntas, estos modelos pueden responder con base en toda la data que tienen, sin embargo, no racionalizan, no tienen un cerebro como nosotros los humanos. Dichos modelos de lenguaje parecen inteligentes y de alguna manera lo son al arrojar resultados más rápidos que los humanos; pueden saber más de lo que un humano podría, pero la realidad es que no están entendiendo nada de lo que hacen”, explica también doctor del Graduate Theological Union en Berkeley, California.

Finalizó diciendo que el temor no es la IA, sino a quien lo alimentan, “para ser sincero no temo a la IA, temo a las personas que usan o quieren usarla para malos propósitos. Por eso, hoy más que nunca, debemos ser más severos al momento de castigar las malas prácticas”. 

Asimismo, Green indicó que es necesario generar fuentes confiables de información para que las personas, empresas y gobiernos consulten temas sobre ética para una mejor toma de decisiones.

Brian Green compartió los 6 pasos que deben seguir las empresas para ser éticamente responsables con la creación de IA:

Compromiso. Los directivos deben comprometerse e involucrarse con la ética en IA, desde managers hasta CEOs, todos los que tengan un rol de liderazgo.

Diagnóstico. Analizar dónde se encuentra ahora la empresa y, preguntarse si existe realmente la cultura ética en la compañía.

Estrategia y plan de acción. Descubrir hacia dónde quiere ser dirigida la empresa al implementar una cultura ética en IA.

Talento / habilidades. Contar con un responsable de uso ético de la tecnología y contar con planes de upskilling y reskilling de aplicación ética de la IA. La ética debe estar integrada en las prácticas organizacionales para que se utilice con regularidad y coherencia.

Medición y mejora continua.

Google News - Elgrafico
Temas Relacionados
inteligencia artificial

Comentarios