Inizio > Pubblicazioni > Carbajo-Núñez Mercoledì 24 dicembre 2025

Informazione sulla pubblicazione:
Inteligencia artificial y privacidad familiar, (24.12.2025), (39)

 
 
 
 
Foto Carbajo-Núñez Martín , Inteligencia artificial y privacidad familiar, (24.12.2025), (39), in Blog: www.cssr.news, 39-ES (2025) p. 2 .

El desarrollo de la inteligencia artificial (IA) está incrementando el confort en la vida familiar, pero al mismo tiempo introduce nuevas formas de vigilancia doméstica que pueden, en ocasiones, limitar la autonomía de sus miembros en la toma de decisiones.
 

1. La paradoja del “hogar inteligente”

Los dispositivos conectados al Internet de las cosas (Internet of Things, IoT), como los asistentes virtuales (Alexa, Google Home, Siri), las cámaras de seguridad, los electrodomésticos inteligentes y los juguetes interactivos, están transformando el entorno familiar en un “hogar inteligente”. Estas tecnologías ofrecen mayor comodidad y eficiencia, pero también plantean riesgos significativos para la privacidad de la vida familiar.

Estos dispositivos recopilan de manera continua datos sobre las rutinas, los hábitos, las conversaciones y las preferencias de los miembros del hogar. Dicha información puede utilizarse posteriormente para personalizar la publicidad, influir en el acceso a seguros o servir como prueba en posibles litigios legales. En 2023, Amazon reconoció que había utilizado las grabaciones de Alexa para entrenar modelos de IA, incluso después de que algunos usuarios hubieran solicitado que dichas grabaciones fueran eliminadas.
 

2. El uso de la IA para predecir las dinámicas familiares

Las conclusiones generadas por los sistemas de IA no son necesariamente objetivas ni neutrales, ya que dependen de la forma en que estos sistemas han sido entrenados y de los criterios que se les han asignado para definir qué constituye una vida familiar “normal”.

Algunos servicios sociales, instituciones judiciales y proveedores de atención sanitaria han comenzado a utilizar algoritmos para analizar las dinámicas familiares, los hábitos de consumo, los patrones de geolocalización y la actividad en las redes sociales, con el fin de predecir riesgos como la negligencia infantil, la ruptura matrimonial o la inestabilidad económica. A partir de estos datos, los sistemas pueden clasificar a las familias según su nivel de “estabilidad”, influyendo así en el acceso a prestaciones sociales, préstamos bancarios, hipotecas o seguros personales.

Estas prácticas plantean serias preocupaciones éticas. Los modelos de IA pueden etiquetar erróneamente a determinadas familias como de “alto riesgo”, perpetuando sesgos estructurales, estereotipos sociales y discriminaciones de clase, género o etnia. Un ejemplo notorio ocurrió en los Países Bajos, donde un algoritmo secreto, basado en criterios discriminatorios, acusó falsamente a miles de familias de fraude fiscal. En Estados Unidos, herramientas como eScore también han sido acusadas de basarse en datos potencialmente discriminatorios para evaluar la solvencia crediticia de las familias.

Además, muchas aplicaciones de control parental utilizan la IA para supervisar los mensajes y la actividad en línea de los adolescentes. Aunque se comercializan como herramientas de protección, a menudo generan desconfianza entre padres e hijos y difuminan la línea entre el cuidado responsable y la vigilancia intrusiva. Aplicaciones como Bark o mSpy, que incorporan funciones de reconocimiento de voz y geolocalización, pueden utilizarse fácilmente para ejercer una supervisión encubierta dentro del hogar.
 

3. Conflictos familiares y perfilado algorítmico

Las herramientas de IA pueden identificar patrones y dinámicas familiares analizando numerosas fuentes, como redes sociales, artículos de prensa, expedientes judiciales y otros documentos públicos relacionados con conflictos conyugales, procesos de divorcio o casos de custodia de menores. También pueden procesar fotografías, vídeos y mensajes digitales compartidos por personas ajenas al núcleo familiar inmediato.

Incluso cuando el contenido ya es público, la IA puede amplificarlo mucho más allá de su alcance original. Al procesar grandes volúmenes de datos, los sistemas de IA pueden reconstruir perfiles familiares detallados, potencialmente estigmatizantes.

Algunos modelos algorítmicos incluso pueden generar contenidos informativos sensacionalistas extrayendo datos de archivos judiciales sin garantizar una protección adecuada de los menores implicados.
 

Conclusión

La rápida expansión de la inteligencia artificial está transformando el hogar en un espacio más confortable, pero también en un ámbito de explotación económica e intrusión tecnológica. Los dispositivos diseñados para facilitar la vida familiar —como electrodomésticos, vehículos, sensores y asistentes digitales— forman hoy parte del Internet de las cosas (IoT), una red que recopila e intercambia datos de manera constante. Como resultado, incluso los espacios más íntimos del hogar pueden convertirse en valiosas fuentes de información con fines comerciales.

La protección de la privacidad familiar, y en particular la salvaguarda de los menores, debe prevalecer sobre los intereses comerciales o las ventajas informativas. Se necesitan regulaciones estrictas para proteger la esfera doméstica de intrusiones tecnológicas no deseadas, estableciendo claramente zonas digitales protegidas donde las relaciones familiares puedan desarrollarse sin vigilancia ni cuantificación.
 
Martín Carbajo-Núñez, ofm
 

Blog Alfonsiana: ("Artificial intelligence and family privacy", online); Blog cssrItaliano (Online), English (Online); Español (Online)


[1] Estos párrafos están basados en nuestro artículo: Carbajo-Núñez Martín, «Family privacy and Artificial Intelligence», in Studia Elbląskie 26 (2025) 363-377.



 
 
 
 
 
 
Martín Carbajo Núñez - via Merulana, 124 - 00185 Roma - Italia
Questa pagina è anche attiva qui
Webmaster