chatgpt_inteligenciaartificial

Peligros de privacidad: Chat GPT

Chat GPT es el desarrollo de inteligencia artificial más importante de los últimos años. El mes pasado hablábamos de su impacto en la protección de datos. Hoy profundizaremos en los peligros que supone para la privacidad. ¿Vamos a ello?

Partiendo de la base de que los chatbots se nutren de nuestros datos personales y cuantos más datos recopilen, más precisa es su capacidad, tanto para detectar patrones como para anticiparse y generar respuestas; los peligros de privacidad aumentan por enteros.

Si además tenemos en cuenta que la información que se usa para entrenar a productos de inteligencia artificial como Chat GPT, se obtiene de Internet y de datos personales que en su mayoría se recaban sin consentimiento de los usuarios, estamos ante un caso de incumplimiento de la normativa de privacidad.

 

Medidas que debería adoptar Chat GPT para cumplir con la normativa de privacidad

1. Informar sobre el tratamiento de datos. Qué datos se usan y para qué.

2. Informar sobre cómo los titulares se pueden oponer a que sus datos sean utilizados para entrenar los algoritmos e implementar mecanismos para ello.

3. Realizar campañas informativas en medios de comunicación

4. Establecer mecanismos para la exclusión del acceso al servicio a usuarios menores de 13 años.

Preceptos de la normativa de privacidad que no se cumplen

En primer lugar, se incumple el deber de información ya que, generalmente, no se proporciona información completa y transparente a los usuarios e interesados sobre el tratamiento que de sus datos hacen estos sistemas.

Además, el incumplimiento de los principios que deben regir el tratamiento de datos personales, entre ellos, el principio de exactitud. Dado que muchos de los datos introducidos en los sistemas son inexactos. Y en consecuencia se produce una desinformación a gran escala. En este sentido, una de las grandes preocupaciones derivadas del uso de sistemas como Chat GPT es la tendencia a “maquillar” la información y aumentar los sesgos en las respuestas proporcionadas al usuario.

Otra de las infracciones destacables es la ausencia de base legitimadora que ampare el tratamiento masivo de datos personales con la finalidad de entrenar los algoritmos que rigen el funcionamiento de los chatbots.

También se destaca la contravención del principio de confidencialidad y la falta de medidas de seguridad. Lo cual incrementa enormemente la posibilidad de brechas y ciberataques.

Por ello, podemos concluir que, aunque la IA tiene el potencial de transformar sectores, solucionar problemas, simplificar respuestas o ser una gran fuente de información. También puede representar grandes riesgos éticos y sociales.

Es importante resaltar que los sistemas de chatbots pueden reproducir, reforzar y amplificar patrones de discriminación y/o desigualdad. En consecuencia, la gestión irresponsable de los datos que pueden realizar estos sistemas, da resultados poco fiables. Que además pueden dañar el bienestar de la ciudadanía y la seguridad en el tráfico jurídico.

¿Se creará un marco regulatorio sólido a nivel mundial que regule los sistemas de inteligencia artifical como Chat GPT? En Bacaria lo seguiremos de cerca para mantenerte informado.

 

Business plan on wall, free public domain CC0 image.

Principales novedades de la nueva Ley de Startups

En Bacaria estrenamos el primer post del año con la mención a las principales novedades de la nueva Ley de Startups o Ley de fomento del ecosistema de las empresas emergentes aprobada el 1 de diciembre de 2022 por el Congreso. Estableciendo así un marco normativo específico para apoyar la creación y el crecimiento de las empresas emergentes.

Aunque su entrada en vigor se aplicó al día siguiente de su publicación en el BOE, las principales novedades fiscales se aplican a partir del 1 de enero de este año. Una medida que sitúa a España a la vanguardia en atracción de inversión, talento y emprendimiento innovador.

El proyecto de Ley incluye importantes medidas fiscales, elimina trabas burocráticas y flexibiliza trámites para fomentar la creación y la inversión en empresas emergentes de base tecnológica. Incluye importantes medidas para atraer y recuperar el talento internacional y nacional, favoreciendo el establecimiento en España de teletrabajadores y “nómadas digitales”.

7 claves de la nueva Ley de Startups:

  1. Flexibiliza el régimen de autocartera de las empresas emergentes y permite que no incurran en causa de disolución por pérdidas hasta que no hayan transcurrido tres años desde su constitución.
  2. Incorpora beneficios fiscales en la tributación de las stock options, la deducción por inversión o en la tributación de la propia empresa emergente.
  3. Bonifica el 100% de la cuota del Régimen Especial de Trabajo Autónomo para los autónomos societarios que continúen siendo trabajadores por cuenta ajena.
  4. Califica el llamado «carried interest» como rendimiento del trabajo en el IRPF integrándolo en un 50% de su importe bajo determinados requisitos.
  5. Las empresas emergentes que operen en sectores regulados podrán solicitar licencias de prueba temporales durante un año.
  6. Introduce modificaciones en el régimen fiscal de impatriados para que más contribuyentes puedan beneficiarse y en materia migratoria para fomentar el teletrabajo internacional.
  7. Determinadas empresas y sucursales deberán divulgar información “país por país” sobre el Impuesto de Sociedades.

Ahora que estás al corriente de las  principales novedades de la nueva Ley de Startups, puede que te surjan dudas al respecto. De modo que si tienes en mente emprender un proyecto digital enmarcado en esta nueva Ley o si ya te dedicas a ello y necesitas que te asesoremos, no dudes en contactar con nuestro despacho.

ai-inteligencia-artificial-bacaria

Ingeligencia Artificial, privacidad y seguridad

El potencial de la Inteligencia Artificial (IA) y las oportunidades que aporta a los individuos y al conjunto de la sociedad, son innegables. Pero ello también conlleva un riesgo cuando las empresas o las entidades públicas utilizan esta tecnología inteligente. Las corporaciones deben ser conscientes de los riesgos y proteger los derechos y libertades de estos individuos a la hora de tratar estos datos personales.  

¿Cómo se utilizan los datos? ¿Se procesan de forma justa, transparente y legal? ¿Están a buen recaudo? ¿Los usuarios entienden cómo se usan y qué se hace con ellos? Estas son algunas de las cuestiones que más preocupan, ya que el tratamiento de esta información es, en muchas ocasiones, hermética y/u opaca. 

Y es que hace apenas dos décadas, la cantidad de información que se manejaba era muy limitada. Por lo que resultaba fácil tener un control sobre quienes trataban estos datos y qué hacían con ellos. Pero en la actualidad el tratamiento de información se dispara. Según un estudio elaborado por Domo Business Cloud, en 2020 se realizaron aproximadamente 1.388.889 llamadas de voz o videollamadas, se publicaron en Instagram 347.222 Stories, se subieron a Facebook 147.000 fotos o se enviaron por Whatsapp 41.666.667 mensajes. Y esto es solo un pequeño ejemplo. Según el Informe Cisco Visual Networking Index (VNI) el tráfico de datos móviles en nuestro país se va a situar en 2022 en los 6,3 exabytes, el equivalente a mil millones de gigabytes, mientras que el número de usuarios móviles será de 41 millones (el 88% de la población) y habrá 103 millones de dispositivos con conexión a Internet.

La AEPD publica un documento con los aspectos a tener en cuenta en materia de IA

Esto ha llevado a la Agencia Española de Protección de Datos (AEPD) a publicar un documento que aborda estas inquietudes y cita los aspectos fundamentales a tener en cuenta a la hora de diseñar y lanzar productos y servicios que precisen del tratamiento de datos personales con el uso tecnologías de Inteligencia Artificial. En el documento se presta especial atención a: la legitimación para el tratamiento, la información y transparencia, el ejercicio de derechos, las decisiones automatizadas, la exactitud, la minimización de datos, la evaluación de impacto y el análisis de la proporcionalidad del tratamiento, como exigencias que deben cumplir los tratamientos llevados a cabo con Inteligencia Artificial.

Además, cabe destacar dos problemáticas importantes, que aún necesitan más desarrollo:

  • La perspectiva ética de la IA, que persigue valores como la dignidad, la libertad, la democracia, la igualdad, la autonomía del individuo y la justicia frente al gobierno de un razonamiento automático.
  • La dificultad que conlleva el ejercicio de derecho de supresión, respecto a los datos obtenidos a través del machine learning, ya que a día de hoy no existe normativa que desarrolle este aspecto.

Pero como señala al final del documento en las principales conclusiones, esa guía trata de ser una “mera introducción a la adecuación de los tratamientos que incluyan componentes de IA y no cubre todas las posibilidades y riesgos que se pueden derivar del empleo de soluciones en IA en tratamientos de datos personales”.  

De momento, la Propuesta de Reglamento Europeo por el que se establecen normas armonizadas en materia de Inteligencia Artificial, como normativa más reciente nos guía sobre aspectos como el respeto a la intervención y supervisión humana, la responsabilidad civil para proteger a los ciudadanos de la unión y los derechos de propiedad intelectual, y con ello el registro de las patentes y los nuevos procesos creativos.

BACARIA, a la vanguardia en Big Data e Inteligencia Artificial

En la actualidad, si bien aún estamos en la fase inicial de desarrollo de la Inteligencia Artificial, es el “ahora o nunca”. El momento perfecto para trabajar en el cumplimiento de las normas y garantizar la privacidad de los usuarios. Sin duda es un reto al que nos sumamos desde BACARIA. Por eso, desde nuestro departamento especializado en Big Data e Inteligencia Artificial, trabajamos a fondo para comprender los cambios en esta materia. Y poder así proteger a los usuarios en esta nueva era tecnológica.

Desde hace años, ofrecemos asesoramiento sobre decisiones automatizadas y uso de inteligencia artificial o perfilados. Ayudamos a elaborar códigos de conducta ética. O trabajamos para la correcta implementación de normas, estándares y procedimientos de uso y funcionamiento de robots inteligentes.

 

BACARIA

BACARIA: renovamos la marca de nuestra firma

Desde ahora, Global Legal Data opera como BACARIA. Una nueva marca que ha surgido como resultado de más de 20 años de experiencia en derecho en entornos digitales.

BACARIA es evolución e inquietud por la mejora y la renovación. La elección del apellido de nuestros fundadores como naming de nuestra firma, viene motivada por nuestra experiencia y reconocimiento en el sector.

El mundo, la sociedad, la tecnología y los negocios avanzan rápido y con paso firme y nosotros con ellos.

En BACARIA somos, ante todo, un equipo. Profesionales que priorizamos la atención personalizada y la excelencia en los trabajos que realizamos. Desde el inicio, nuestros principios éticos han sido y seguirán siendo, la calidad, la dedicación, la innovación y la globalidad.

BACARIA coge el relevo aportando una nueva imagen de marca, nuevos servicios, nueva página web, pero manteniendo los valores que nos hacen destacar en el mercado.

bacaria

La nueva marca es la muestra de que estamos en constante crecimiento, con la voluntad de ofrecer a nuestros clientes cobertura total para sus necesidades legales actuales y futuras. La perseverancia y la dedicación a nuestro trabajo nos ha permitido evolucionar de la marca Global Legal Data a BACARIA, para seguir posicionándonos como una firma líder en el derecho en entornos digitales.Y esta valentía, visión y oportunidad, es también la que queremos transmitir a nuestros clientes para apoyarles en sus negocios.

Seguiremos ofreciendo a nuestros clientes servicios legales transversales para dar cobertura a las necesidades de los negocios actuales. De esta forma, asesoramos y ofrecemos soluciones en todos los procesos de creación, protección y desarrollo del negocio. Desde la privacidad, la propiedad intelectual e industrial, audiovisual, el ámbito mercantil, sector público y de la seguridad.

Los clientes nos eligen por nuestros amplios conocimientos en estas materias, por la confianza que les transmitimos y por nuestra disponibilidad e implicación. Nuestra responsabilidad corporativa se basa en aportar un sólido conocimiento jurídico especializado, dar valor estratégico a la función legal en las empresas y aplicar soluciones innovadoras a los temas más complejos.

BACARIA, tu firma de confianza de derecho en entornos digitales.