Redes sociales
En muchos sentidos, las plataformas de redes sociales son simplemente algoritmos gigantes.
En el fondo, averiguan lo que le interesa y luego le brindan más, utilizando tantos puntos de datos como puedan.
Cada «me gusta», reloj, clic se almacena. La mayoría de las aplicaciones también obtienen más datos de sus hábitos de navegación web o datos geográficos. La idea es predecir el contenido que desea y mantenerlo desplazándose, y funciona.
Y esos mismos algoritmos que saben que disfrutas de un video de gatos lindos también se implementan para venderte cosas.
Todos los datos que las empresas de redes sociales recopilan sobre usted también pueden personalizar los anuncios para usted de una manera increíblemente precisa.
Pero estos algoritmos pueden fallar seriamente. Se ha demostrado que empujan a las personas hacia contenido extremista y de odio. El contenido extremo simplemente funciona mejor que los matices en las redes sociales. Y los algoritmos lo saben.
La propia auditoría de derechos civiles de Facebook pidió a la compañía que hiciera todo lo posible para evitar que su algoritmo «lleve a la gente hacia cámaras de eco del extremismo que se refuerzan a sí mismas».
Seguro
Ya sea para la casa, el automóvil, la salud o cualquier otra forma de seguro, su aseguradora tiene que evaluar de alguna manera las posibilidades de que algo realmente salga mal.
En muchos sentidos, la industria de seguros fue pionera en el uso de datos sobre el pasado para determinar los resultados futuros; esa es la base de todo el sector, según Timandra Harkness, autora de Big Data: Does Size Matter.
Conseguir que una computadora lo hiciera siempre sería el siguiente paso lógico.
«Los algoritmos pueden afectar mucho su vida y, sin embargo, usted como individuo no necesariamente recibe mucha información», dice.
«Todos sabemos que si se muda a un código postal diferente, su seguro aumenta o disminuye.
«Eso no es por usted, es porque otras personas han sido más o menos propensas a haber sido víctimas de delitos, o han tenido accidentes o lo que sea».
Innovaciones como la «caja negra» que se puede instalar en un automóvil para monitorear cómo conduce un individuo han ayudado a reducir el costo del seguro del automóvil para los conductores cuidadosos que se encuentran en un grupo de alto riesgo.
¿Podríamos ver cotizaciones de seguros más personalizadas a medida que los algoritmos aprendan más sobre nuestras propias circunstancias?
«En última instancia, el objetivo del seguro es compartir el riesgo, para que todos pongan [dinero] y las personas que lo necesiten lo saquen», dice Timandra.
«Vivimos en un mundo injusto, por lo que cualquier modelo que hagas será injusto de una forma u otra».
Cuidado de la salud
La inteligencia artificial está dando grandes pasos para poder diagnosticar diversas afecciones e incluso sugerir vías de tratamiento.
Un estudio publicado en enero de 2020 sugirió que un algoritmo funcionaba mejor que los médicos humanos cuando se trataba de identificar el cáncer de mama a partir de mamografías .
Y otros éxitos incluyen:
- una herramienta que puede predecir las tasas de supervivencia del cáncer de ovario y ayudar a determinar las opciones de tratamiento
- inteligencia artificial de University College, Londres, que identificó a los pacientes con más probabilidades de perder citas y, por lo tanto, necesitan recordatorios
Sin embargo, todo esto requiere una gran cantidad de datos de pacientes para entrenar los programas, y eso es, francamente, una lata bastante grande de gusanos.
En 2017, la Comisión de Información del Reino Unido dictaminó que Royal Free NHS Foundation Trust no había hecho lo suficiente para salvaguardar los datos de los pacientes cuando compartió 1,6 millones de registros de pacientes con la división de inteligencia artificial de Google, DeepMind.
«Existe una delgada línea entre encontrar nuevas y emocionantes formas de mejorar la atención y adelantarse a las expectativas de los pacientes», dijo el cofundador de DeepMind, Mustafa Suleyman en ese momento.
Vigilancia
Los macrodatos y el aprendizaje automático tienen el potencial de revolucionar la vigilancia.
En teoría, los algoritmos tienen el poder de cumplir la promesa de ciencia ficción de la «vigilancia predictiva», utilizando datos, como dónde ha ocurrido un crimen en el pasado, cuándo y por quién, para predecir dónde asignar los recursos policiales.
Pero ese método puede crear un sesgo algorítmico, e incluso un racismo algorítmico.
«Es la misma situación que tiene con las calificaciones de los exámenes», dice Areeq Chowdhury, del grupo de expertos en tecnología WebRoots Democracy.
«¿Por qué juzgas a un individuo en función de lo que otras personas han hecho históricamente? Las mismas comunidades siempre están sobrerrepresentadas».
A principios de este año, el grupo de expertos en defensa y seguridad RUSI publicó un informe sobre vigilancia algorítmica .
Expresó su preocupación por la falta de directrices nacionales o evaluaciones de impacto. También pidió más investigación sobre cómo estos algoritmos podrían exacerbar el racismo.
El reconocimiento facial también, utilizado por las fuerzas policiales del Reino Unido, incluido el Met, también ha sido criticado.
Por ejemplo, ha habido preocupaciones sobre si los datos que ingresan en la tecnología de reconocimiento facial pueden hacer que el algoritmo sea racista.
El cargo es que las cámaras de reconocimiento facial son más precisas para identificar rostros blancos, porque tienen más datos sobre los rostros blancos.
«La pregunta es, ¿lo está probando en un grupo demográfico de personas lo suficientemente diverso?» Dice Areeq.
«Lo que no desea es una situación en la que algunos grupos se identifiquen erróneamente como delincuentes debido al algoritmo».