Cada vez que nos conectamos a Internet, podemos encontrarnos parte de una experiencia, sin siquiera saberlo. Las plataformas digitales rastrean lo que hacen los usuarios y cómo responden a las funciones. Cada vez más, estas pruebas tienen consecuencias en el mundo real para sus participantes.
He visto esto en mi propia investigación sobre la economía de los trabajos por encargo, donde estudié plataformas de ofertas de empleo que ofrecen tareas remuneradas y trabajos a autónomos (HA Rahman et al. Casi. administración. DO. 661803-1830; 2023). Las plataformas han experimentado con el uso de diferentes métodos para evaluar el trabajo de las personas, además de cambiar la forma en que enumeran sus habilidades en su página de perfil y cómo interactúan con sus contratistas. Estos cambios afectaron las evaluaciones de las personas y la cantidad de trabajo que recibieron.
Cómo aprovechar el potencial de la inteligencia artificial en la investigación de forma responsable y ética
Hace veinte años, esas experiencias eran transparentes. Los trabajadores autónomos pueden optar por participar o no en las pruebas. Pero hoy en día estos experimentos se llevan a cabo en secreto. Los Gig Workers renuncian a sus derechos cuando crean una cuenta.
Realizar experimentos puede resultar confuso y frustrante. Imagínese que cada vez que entraba a su oficina, ésta era rediseñada. Lo mismo se aplica a cómo te evalúan y a cómo puedes hablar con tus superiores, pero sin tu conocimiento o consentimiento. Estos cambios constantes afectan su desempeño y cómo se siente con respecto a su trabajo.
Los trabajadores de Gig expresaron que, después de notar cambios frecuentes en las plataformas de listado realizados sin su consentimiento, comenzaron a verse a sí mismos como conejillos de indias en lugar de usuarios valiosos. Debido a que sus mensajes fueron bloqueados por chatbots, no pudieron hablar con la plataforma para quejarse o cancelar la suscripción a los cambios. Estalló la frustración y se instaló la apatía. Sus ingresos y bienestar disminuyeron.
Esto es preocupante, no sólo por el alcance de su impacto en los trabajadores autónomos, sino también porque los académicos se involucran cada vez más en el diseño de experiencias digitales. Los científicos sociales siguen estrictos procedimientos de la Junta de Revisión Institucional (IRB) que rigen la ética de los experimentos con personas (como informarles y solicitar su consentimiento), pero estas reglas no se aplican a las empresas de tecnología. Esto conduce a prácticas cuestionables y resultados potencialmente poco confiables.
Inteligencia artificial al rescate: cómo impulsar las alertas tempranas de desastres utilizando herramientas tecnológicas
Las empresas de tecnología utilizan sus términos de servicio para permitirles recopilar datos sin ninguna obligación de informar a las personas sobre su participación o brindarles la oportunidad de optar por no participar. En consecuencia, las experiencias digitales enfrentan poca supervisión.
Dado que las empresas de tecnología llegan a millones de personas, los experimentos que utilicen sus datos pueden resultar útiles. Por ejemplo, un estudio de 2022 realizado por académicos y la plataforma de contratación LinkedIn respondió preguntas sobre hasta qué punto los vínculos débiles en las redes sociales de las personas contribuyen a los resultados laborales (su. Rajkumar et al. ciencias 3771304-1310; 2022). La plataforma ha diversificado el algoritmo que utiliza para sugerir nuevos contactos a más de 20 millones de usuarios. Estas personas no eran conscientes de ello, aunque esto puede afectar a sus oportunidades laborales.
Es posible que los propios científicos estén expuestos a prácticas tan ocultas. Por ejemplo, en septiembre, la revista ciencias Reconoció que los estudios que publicó explorando la polarización política utilizando feeds de usuarios de la plataforma de redes sociales Facebook se vieron comprometidos cuando el gigante tecnológico cambió su algoritmo durante el período de estudio sin el conocimiento de los científicos (H. Holden Thorpe y V. Vinson ciencias 3851393; 2024).
Los académicos deben tener más cuidado con los datos que producen a través de la colaboración con empresas de tecnología y repensar cómo llevan a cabo esta investigación. Se necesita un marco éticamente sólido para la colaboración entre la ciencia y la industria para garantizar que la experimentación no ponga en peligro la confianza del público en la ciencia.
Serie Decline: Cómo detener la propagación de la mala ciencia a través de la literatura
En primer lugar, los académicos deben realizar una evaluación ética exhaustiva examinando a los socios potenciales y asegurándose de que sigan los principios del IRB. Pueden trabajar con organizaciones de supervisión intermediarias o crearlas, tal como Fairwork, con sede en Oxford, Reino Unido, trabaja para proteger los derechos de los trabajadores por encargo, que pueden revisar las prácticas de pilotaje y seguimiento. Introducir la transparencia en la recopilación de datos. Puede difundir y hacer cumplir normas éticas para los experimentos, informar a los socios de la industria sobre cómo realizar investigaciones éticamente sólidas y exigirles responsabilidades.
En segundo lugar, los científicos deben evaluar los impactos sociales del experimento para estudiar y mitigar cualquier daño potencial. Esto no es trivial, porque los ensayos rara vez tienen en cuenta el bienestar de los participantes y no evalúan las posibles consecuencias no deseadas.
Las empresas de tecnología deben crear sus propios comités de revisión internos, que tienen autoridad para evaluar y examinar experimentos. La industria necesita inculcar una cultura de experimentación éticamente sólida, incluida la comprensión de los posibles impactos negativos que los participantes pueden enfrentar.
La organización es crucial. Un buen ejemplo es Ley de Inteligencia Artificial de la UEque se centra en el derecho de los consumidores a la privacidad y protección de datos y tiene como objetivo crear un “espacio seguro y controlado para la experimentación”.
Los consumidores y usuarios deberían formar organizaciones de terceros, similares a los sindicatos utilizados por los trabajadores independientes, para evaluar a las empresas en función de si solicitan consentimiento, permiten que las personas opten por no participar en los ensayos y si son transparentes.
Avanzar en los experimentos científicos e industriales requiere prácticas, reglas y sistemas que garanticen resultados mutuamente beneficiosos para los individuos, las organizaciones y la sociedad.
Intereses en competencia
El autor no declara intereses en competencia.