Economía, Empleo y Turismo

"Soy consciente de que el uso de réplicas de voz con el propósito de engañar están siendo utilizadas"

Este jueves han finalizado las jornadas Universidad Pyme, organizadas por FUNDAE y el SEPE en colaboración con la Ciudad Autónoma.

Bajo el título Jóvenes, IA y el futuro del emprendimiento, el Teatro Kursaal acogió ayer y hoy la segunda edición de este evento cuyo objetivo es acercar la inteligencia artificial a las pequeñas y medianas empresas, así como a los emprendedores.

El éxito del evento, llevado a cabo en Melilla el pasado año, dejó claro el interés e impacto positivo que la Universidad Pyme tiene entre el empresariado local.

Ahora, en enero de 2025, este certamen promete ser aún más enriquecedor, con ponencias de expertos, tales como Carlos Iglesias (CEO de Laboratorio Voltaire), Iván Fanego (CEO y fundador de AppCritic), Marta Suárez-Mansilla (CEO de Artworld Law) y Luis Parra (CEO de Strategyco), que abordarán temas clave sobre digitalización, inteligencia artificial y las últimas tendencias tecnológicas.

Su objetivo en todos los eventos que se organizan en las diferentes comunidades y ciudades autónomas españolas es la formación en competencias digitales a lo largo de la vida laboral, tanto en el ámbito de las Pymes como de los autónomos poniendo a sus disposición recursos de utilidad para su digitalización y el intercambio de experiencias entre empresas y futuras personas emprendedoras.

En la segunda jornada hemos tenido la oportunidad de hablar con Marta Suárez-Mansilla, CEO de Artworld Law quien puso sobre la mesa los derechos de los usuarios ante los peligros que puede traer consigo la inteligencia artificial.

“Yo tengo un perfil un poco peculiar”, nos comenta Marta quien es una apasionada de los asuntos tecnológicos aunque procede del mundo de la abogacía. “Durante esta conferencia voy a abordar cuáles son los problemas jurídicos que pueden plantear el uso de las herramientas de inteligencia artificial y particularmente el ChatGPT que es una de las aplicaciones más extendidas y de uso común”.

La CEO de Artworld Law señala que “hablaré sobre cómo proteger temas relativos a la privacidad, cómo debería ser un uso correcto de la herramienta para protegerse también a uno mismo o cuáles son los potenciales riesgos que puede plantear, pero siempre desde un punto de vista positivo porque la inteligencia artificial está aquí para quedarse”, señala.

Pero, ¿a qué clase de riesgos nos enfrentamos? “Lo primero que debemos hacer es entender bien cómo funciona la inteligencia artificial. No quizás de una manera muy profunda, pero tenemos que conocer unas pequeñas pinceladas de cuál es su verdadero funcionamiento interno; y lo segundo saber que no todas las herramientas de inteligencia artificial disponibles sirven para todo. Una vez sabido esto, es necesario configurar cada herramienta, teniendo en cuenta los protocolos de privacidad que tienen porque todos los desarrolladores de herramientas de IA tienen que adaptarse a la normativa, en este caso, a la europea. Desde España se han de cumplir una serie de protocolos de privacidad. Sabiendo esto, uno es capaz de configurar el uso de la herramienta y anticipar el tipo de situaciones que se puede encontrar”.

De hecho, "muchos desarrolladores de inteligencia artificial han hecho una adaptación bastante rápida para ajustarse a la normativa europea y a los protocolos de transparencia, consentimiento e información. De forma que sabiendo un poquito como manejarla ya tienes gran parte de los riesgos prevenidos”.

Porque en la inteligencia artificial también surgen estafadores: “quien realmente tiene una voluntad de conseguir un propósito un poco torticero utiliza todas las herramientas a su alcance y, obviamente, la IA es una de ellas. Tengo conocimiento del uso de la inteligencia artificial para replicar voces con fines de engaño, en ocasiones, telefónico a través de suplantaciones de identidad lo cual hace que sean necesarias unas pautas de prevención, de ciberseguridad como cuando estamos siendo víctimas de fishing. Tenemos que estar más alerta ante esta clase de situaciones que nos podemos encontrar y soy consciente de que el uso de réplicas de voz con propósitos de engaños están siendo utilizados".

¿Sería denunciable, por lo tanto, una estafa a través de la inteligencia artificial? “por supuesto. Existe un reglamento llamado Ley de la IA que entró en vigor en junio del 2024. Curiosamente, los desarrolladores empezaron a implementar parte de las medidas adaptadas a esta normativa incluso antes de su entrada en vigor, ya que había muchas quejas”, explica Marta Suárez-Mansilla.

“Estamos hablando de la obligación de transparencia en cuanto a la información que se recaba, cómo se trata la privacidad, el compromiso del anonimato por parte de los desarrolladores. Cada vez hay más instrumentos que protegen a los usuarios”.

Evidentemente, la rapidez de las nuevas tecnologías es tanta que los abogados tienen que ponerse al día con esta ley: “de momento no hay abogados especializados en estos temas porque es algo sumamente novedoso. Además estamos teniendo una eclosión de situaciones tecnológicas que nos obligan a adaptarnos. Ahora estamos hablando de la IA, pero hace cuestión de 3 años fue el impacto del Blockchain y, actualmente, estamos ante una regulación que ésta entrando en vigor y que tiene que ir con criptoactivos. Entonces, todo el mundo tecnológico nos está obligando a los abogados a estar muy al día y a tener y ampliar nuestros conocimientos tecnológicos. Evidentemente, no puedes abordar la regulación de una materia o su interpretación jurídica si no sabes cómo funciona”.

Con relación a las medidas de protección para evitar estafas, Marta Suárez-Mansilla incide en que “hay hábitos que hemos adoptado desde hace tiempo y que existen desde el comercio electrónico, desde que internet forma parte de nuestra vida cotidiana”.

Es más, incluso en el “tema de protección de datos en Europa somos conscientes de que tiene que estar sujeto a un consentimiento, que existen unas agencias nacionales que nos protegen, que podemos presentar reclamaciones. Lo que sucede con este panorama jurídico europeo es que las herramientas IA pasan por los mismos protocolos y, como ciudadanos europeos, debemos estar bastante habituados a esta clase de medidas que se basan en el consentimiento expreso del usuario”.

Una de las dudas que nos surge es si al utilizar una aplicación china o estadounidensese aplica la misma protección: “estamos hablando de un mercado global lo cual nos obliga a cumplir con esos protocolos. No es responsabilidad del usuario tener que prevenirse sino que es obligación de los que desarrollan la herramienta cumplir todos los protocolos y marcos jurídicos aplicables en función del territorio dónde ofrecen sus servicios”.

Compartir

Artículos recientes

Los populares creen que han "roto el relato" al Gobierno del PSOE

Los populares están convencidos de que han "roto el relato" al Gobierno del PSOE, que…

20 minutos hace

Los senadores pedirán un plan de empleo extraordinario para Melilla

Los senadores del Partido Popular por Melilla pedirán la creación de un plan de empleo…

50 minutos hace

CpM pide dos comisiones especiales para transporte y fronteras y la reforma del Estatuto de Autonomía

CpM interpelará al Gobierno en el próximo Pleno de la Asamblea del viernes 30 de…

53 minutos hace

El PP promueve un plan de seguridad para Melilla que la haga frontera de la UE

El Partido Popular quiere que las ciudades de Ceuta y Melilla cuenten con un plan…

2 horas hace

"El futuro no es tecnológico sino humano"

Luis Parra CEO de Strategyco fue el encargado de ofrecer una conferencia bajo el título…

2 horas hace

SATE-STEs enumera los desperfectos en el CEIP Constitución

El Sindicato Autónomo de Trabajadores de la Enseñanza (SATE-STEs) ha protestado por el hecho de…

2 horas hace