Si todavía le preocupa que la IA le quite su trabajo, el presidente de la Comisión Federal de Comercio (FTC) tiene noticias para usted: también podría usarse como una herramienta para quitarle su dinero.
Si esto suena como una trama secundaria rechazada de una novela de ciencia ficción distópica, piénselo de nuevo. La presidenta de la FTC, Lina Khan, advirtió al público sobre los peligros de que se aprovechen los datos de los clientes para una posible “fijación de precios de vigilancia”.
no te pierdas
Durante el Festival de Innovación Fast Company 2024 en septiembre, Khan usó el ejemplo de un pasajero al que se le cobra más dinero por un boleto de avión “porque la compañía sabe que acaba de morir un familiar y necesita volar por todo el país”.
Hasta el momento, ninguna aerolínea ha implementado o investigado esta práctica. Sin embargo, ¿podría hacerse realidad la predicción de Khan?
De astutos estafadores a vendedores comerciales
A lo largo de los años, las aerolíneas ya han introducido tarifas adicionales por el equipaje facturado, la selección de asientos, los cambios de boletos e incluso el equipaje de mano, elementos que alguna vez se dieron por sentado como gratuitos.
La situación se ha vuelto tan grave que avivó la ira del Senado de Estados Unidos que, en marzo, intensificó su investigación sobre los miles de millones de dólares que recaudan las aerolíneas como resultado de las tarifas excesivas.
“Dada la cantidad de información íntima y personal que las empresas digitales recopilan sobre nosotros, existe cada vez más la posibilidad de que a cada uno de nosotros se nos cobre un precio diferente en función de lo que las empresas saben sobre nosotros”, explicó Khan.
Tampoco se trata sólo del transporte aéreo. Los datos específicos procesados por la inteligencia artificial (IA) ya están aquí y llegan, como suele ocurrir con estas cosas, a través de estafadores.
Ya sea a través de eventos como la violación de Equifax de 2017 que expuso la información personal de 147 millones de personas, o empresas como Meta que incumplen sus compromisos de privacidad de los usuarios, es cada vez más posible que sus valiosos datos personales de alguna manera entren en la naturaleza digital.
A veces, el peligro puede provenir de una fuente inocua: datos de compra que una empresa adquiere por medios honestos (piense: sus comerciantes en línea favoritos, por ejemplo).
Si se combina con información más amplia obtenida y analizada mediante análisis de vanguardia, el comerciante podría descubrir que se encuentra en una posición vulnerable en un abrir y cerrar de ojos con una IA, por así decirlo. Esto posiblemente pueda abrir la puerta a la especulación de precios.
Leer más: Por qué las personas que trabajan con un asesor financiero se jubilan con 1,3 millones de dólares adicionales
Cómo protegerte
En febrero, la popular cadena de comida rápida Wendy's sufrió el desprecio y el ridículo en línea poco después de que el director ejecutivo Kirk Tanner anunciara una inversión de 20 millones de dólares en tableros de menú digitales para probar precios dinámicos.
La tecnología impulsada por la IA podría, en teoría, analizar los hábitos de los consumidores en función de las prisas y las pausas, y cobrar en consecuencia. Los clientes lo criticaron como una forma de estafarlos. (Desde entonces, Wendy's ha dicho que los tableros de menú digitales solo brindarían descuentos o recomendarían productos).
También puede avisar a los políticos y a los medios de comunicación cuando detecte discriminación de precios y hacerles saber a las empresas que los ha descubierto a través de las redes sociales.
Mientras tanto, las estafas de IA se han convertido en parte del “trabajo básico de fraude” de la FTC, señaló Khan, así que comuníquese con la agencia cuando vea o experimente algo mal.
“Algunas de estas herramientas de inteligencia artificial están impulsando ese fraude porque permiten que algunas de estas estafas se difundan mucho más rápidamente, de manera mucho más económica y en una escala mucho más amplia”, dijo.
Antes de que alguien venga a rescatarte, debes saber que los delincuentes seguirán haciendo uso de su astucia a medida que la IA se vuelva más sofisticada.
Una nueva estafa implica la clonación de voz, en la que los malhechores utilizan la huella de voz de un ser querido (grabada en una cafetería, por ejemplo) para pedir dinero en efectivo de emergencia, con la esperanza de bajar la guardia porque es una voz que reconoces.
La tecnología está tan extendida que medios de renombre, como Descript, se jactan de que pueden clonar tu voz en un minuto utilizando sólo unos segundos de una grabación de audio.
En 2023, McAfee encuestó a 7000 personas y descubrió que una de cada cuatro había experimentado una estafa de clonación de voz o conocía a alguien que la había sufrido.
Además, uno de cada 10 encuestados también reveló que había recibido una llamada telefónica con un clon de voz de IA, y el 77% de esa cohorte admitió que había perdido dinero como resultado.
Para protegerse, no acepte llamadas de números extraños o desconocidos y si alguien le pide dinero, incluso si dice ser una persona que conoce, cuelgue y llame a dicha persona a su número de teléfono legítimo.
Con el phishing por correo electrónico, los estafadores ahora usan tecnología de inteligencia artificial para hacer que su copia sea más realista o para hacerse pasar por alguien que puede supervisar un servicio de cuenta, como Netflix.
Qué leer a continuación
Este artículo proporciona únicamente información y no debe interpretarse como un consejo. Se proporciona sin garantía de ningún tipo.
Rnb">Source link