Lyra Health, que brinda terapia a los empleados de Google y Facebook, enfrenta preocupaciones sobre la privacidad y el tratamiento
Actualidad, Promoción y Prevención

Lyra Health, que brinda terapia a los empleados de Google y Facebook, enfrenta preocupaciones sobre la privacidad y el tratamiento


“Esto no es una cadena de montaje. En realidad, se trata de personas”, dijo un ex terapeuta.


Sintiéndose estresado y abrumado en enero pasado, Daniel Rojas decidió aprovechar un beneficio que Starbucks suele ofrecer a sus empleados en todo el país: terapia gratuita a través de Lyra Health, una startup de salud mental que brinda servicios de asesoramiento a algunas de las empresas más grandes del mundo.

Rojas, un supervisor de turno de 25 años en Buffalo, Nueva York, había estado lidiando con disforia de género y problemas de imagen corporal, dos problemas que, según él, se combinan “como una serpiente que se muerde la cola”. Así que Rojas aprovechó la oferta del gigante del café de 20 sesiones de asesoramiento gratuitas de Lyra, una querida de Silicon Valley cofundada y dirigida por el ex director financiero de Facebook, David Ebersman.

Pero después de cuatro sesiones, Rojas, que usa los pronombres él/ellos, se sintió frustrado con el progreso de su tratamiento. Dijo que tenía que volver a explicar constantemente cosas que había repasado en sesiones anteriores, lo que le hacía revivir los mismos traumas cada vez que tenía que repetirlos. Entonces decidieron terminar el tratamiento con ese consejero y buscar otro en la plataforma de Lyra.

Sin embargo, cuando intentaron encontrar a otra persona, dijeron que un representante de Lyra les dijo en una videollamada que sus problemas estaban demasiado avanzados para el cuidado de la compañía. El representante sugirió que buscara un tratamiento a largo plazo en otro lugar y lo dejó resolverlo por su cuenta.

“Trabajo muy duro en Starbucks y quiero obtener todos los beneficios posibles”, dijo Rojas. “Me sentí alienado. Sentí que me estaban engañando”. Starbucks no respondió a múltiples solicitudes de comentarios sobre la situación de Rojas y Lyra se negó a abordarlo.

Es posible que la perspectiva de crecimiento a toda costa de la industria tecnológica no se traduzca bien en un campo tan delicado como la salud mental.

Starbucks anuncia su beneficio Lyra como “cuidado de la salud mental para una amplia gama de necesidades, desde leves hasta complejas”. Pero la experiencia de Rojas revela una forma en que los pacientes pueden sentirse desatendidos por una empresa emergente que pretende ser un modelo para la “atención de la salud mental moderna”. En entrevistas con BuzzFeed News, 18 usuarios, terapeutas y ex empleados de Lyra expresaron su preocupación por algunas de las prácticas comerciales de la empresa, incluida su estructura de bonificación basada en la productividad para terapeutas y el uso de datos de pacientes. Algunas de las personas que hablaron con BuzzFeed News para esta historia lo hicieron bajo condición de anonimato porque temían las repercusiones de sus empleadores o ex empleadores.

Lyra, cuya gigantesca lista de clientes corporativos también incluye a Google, la empresa matriz de Facebook, Meta, y Morgan Stanley, es una de las líderes en una ola de nuevas empresas que se enfocan en la salud mental, aplicando el ethos de absorción de datos de Silicon Valley a la disciplina de la terapia. Los gigantes tecnológicos como Facebook y Google a menudo resisten las críticas por tomarse libertades con la información personal de las personas, pero el modelo de negocios detrás de nuevas empresas como Lyra ha recibido menos escrutinio. La empresa, que ha recaudado 700 millones de dólares en financiación hasta la fecha, genera ingresos a través de acuerdos con empresas de alto perfil, utilizando datos de pacientes anónimos para demostrar que proporciona beneficios que valen la pena.

Un mejor acceso a la terapia, por supuesto, es algo bueno. Los partidarios de Lyra citan buenos salarios para los terapeutas, una plataforma de software bien construida y la conciencia que la compañía ha brindado a las personas que de otra manera no habrían buscado terapia. Otras empresas de salud mental, incluidas Ginger, Modern Health y Cerebral, también se han convertido en productos básicos en el lugar de trabajo, especialmente durante una pandemia mundial. (BuzzFeed tiene una relación con Ginger para ofrecer beneficios de salud mental a los empleados).

A medida que más personas confían su bienestar a esta floreciente clase de aplicaciones de terapia, es posible que la perspectiva de crecimiento a toda costa de la industria tecnológica no se traduzca bien en un campo tan delicado como la salud mental. La prominencia de Lyra plantea dudas sobre si la necesidad de una startup de alto vuelo de Silicon Valley de justificar su valoración de $ 4.6 mil millones informada entra en conflicto con su capacidad para brindar servicios de salud mental de calidad.

La portavoz de Lyra, Dyani Vanderhorst, dijo en un comunicado: “Nuestro enfoque facilita que millones de personas accedan a atención médica mental de alta calidad. A medida que la demanda se acelera, seguimos comprometidos con brindar atención médica mental clínicamente probada y basada en resultados para los empleados y sus dependientes en todas las facetas de la salud mental”.

“Puede ser arriesgado en términos de ética”

Ebersman fundó Lyra Health hace siete años en Burlingame, California, a unas 20 millas al sur de San Francisco. El exejecutivo de Facebook, quien anteriormente fue el jefe financiero de Genentech antes de llegar a la red social de Mark Zuckerberg, dijo que decidió iniciar Lyra después de tener una experiencia difícil para encontrar cuidado para un miembro de la familia. (Lyra se negó a que Ebersman estuviera disponible para una entrevista).

La startup emplea a sus propios terapeutas y al mismo tiempo aprovecha una red de contratistas. Cuando una empresa contrata a Lyra para ser un Programa de Asistencia al Empleado (EAP), sus empleados generalmente reciben una cantidad fija de sesiones gratuitas por año para ver a un consejero. El plan original era ofrecer a los usuarios sesiones de terapia ilimitadas, dijeron dos antiguos empleados, aunque esa política se cambió más tarde. Los médicos de la plataforma de Lyra se especializan en terapia de “atención combinada” basada en evidencia, una combinación de sesiones en persona o en video en vivo y lecciones digitales y otro contenido. Después de que los empleados usen todas sus sesiones gratuitas, pueden continuar viendo a su terapeuta Lyra pagando de su bolsillo o mediante un seguro médico.

Cuando se trata de trabajo clínico, la empresa pone énfasis en la eficiencia. Los terapeutas internos de la startup tienen derecho a bonificaciones basadas en la productividad, dijeron a BuzzFeed News dos ex terapeutas del personal de Lyra, que se mide a través de una variedad de objetivos, incluida la mejora de los síntomas con el tiempo según las encuestas de los pacientes.

Una de las ex terapeutas, Megha Reddy, dijo que el modelo de bonificación puede empujar a los terapeutas a “producir en masa” pacientes rápidamente. Reddy, quien trabajó en Lyra hasta 2019, dijo que el sistema puede alentar un comportamiento cuestionable y podría incentivar a los terapeutas a no ver a un paciente por más de una cierta cantidad de sesiones.

“No puedes simplemente involucrar a la gente y esperar que vean resultados”.

“Esto no es una cadena de montaje. Esto es realmente gente”, dijo Reddy. “No puedes simplemente involucrar a la gente y esperar que vean resultados”.

Vanderhorst, el vocero de Lyra, no respondió preguntas específicas sobre el sistema de bonificación o qué cambios se le pueden haber hecho, pero dijo en un comunicado: “También nos preocupamos mucho por crear una experiencia laboral dinámica y de apoyo para nuestros proveedores. como ofreciéndoles una compensación justa”.

Como empleada a tiempo parcial que trabaja 20 horas a la semana en Lyra, Reddy dijo que se esperaba que atendiera de 12 a 20 pacientes a la semana con el objetivo de tener una nueva lista de pacientes cada seis a 10 semanas. Los incentivos financieros crean el potencial de abuso, dijo. Su incomodidad con el sistema de bonos fue la principal razón para dejar a Lyra.

“Puede ser arriesgado en términos de ética”, dijo Reddy. “No me vas a dictar cuándo se supone que un paciente se sienta mejor en función de los números. Eso se basará en el paciente y en mi discreción”.

Vanderhorst dijo que los proveedores son los que determinan cuántas sesiones necesita un paciente.

Arthur Caplan, jefe de la División de Ética Médica de la Facultad de Medicina Grossman de la Universidad de Nueva York, dijo que un sistema de bonos como el que usa Lyra lo pone “nervioso”. “Podría ser un conflicto de intereses”, dijo. “La rotación como medida del éxito es ciertamente dudosa en la atención de la salud mental”.

“Marcamos el tono. Básicamente comenzamos una industria”.

Facebook, Google y Morgan Stanley se negaron a comentar sobre la estructura de bonos de Lyra, y Starbucks no respondió a múltiples solicitudes de comentarios.

Según los informes, otras nuevas empresas de salud mental también han incentivado la productividad de los terapeutas. En diciembre, Forbes informó que Cerebral había reclasificado a los terapeutas asalariados como contratistas, haciendo que el acceso a los beneficios médicos, de la vista y dentales dependiera del cumplimiento de las cuotas. “Esto se hizo para que nuestros mejores y más productivos terapeutas tengan la oportunidad de ganar más”, dijo el director ejecutivo Kyle Robertson en respuesta. Cerebral no respondió a una solicitud de comentarios.

Pero mientras que otras aplicaciones se involucran en prácticas similares cuando se trata de políticas de datos e incentivos de productividad, Lyra Health tiene parte de la responsabilidad porque fue pionera en el espacio, dijeron dos ex empleados. “Nosotros marcamos la pauta”, dijo uno de ellos. “Básicamente comenzamos una industria”.

Resultado Salud

Ebersman ha dicho que quiere llevar parte del enfoque centrado en datos de Facebook a la salud mental. “Una de las cosas mágicas de Facebook es cómo la experiencia es completamente personalizada”, dijo Ebersman cuando se lanzó Lyra en 2015. “Y eso generalmente está ausente de su experiencia en atención médica”.

Para recopilar datos sobre el progreso del tratamiento, Lyra envía periódicamente a los pacientes “encuestas de resultados”. Los cuestionarios indagan, por ejemplo, sobre cosas como la ansiedad o la irritabilidad en las últimas dos semanas, y les piden a los pacientes que clasifiquen su intensidad del 0 al 3, según las encuestas vistas por BuzzFeed News. Las encuestas, que utilizan preguntas clínicamente aceptadas y estandarizadas, son opcionales. Pero los pacientes pueden sentirse obligados a completarlos porque los correos electrónicos automáticos parecen provenir de su terapeuta.

Los médicos pueden usar los datos para ayudar a dar forma a su tratamiento, pero hay otra razón por la que Lyra impulsa las encuestas: la compañía comparte datos agregados y anónimos sobre los resultados de los pacientes con los empleadores para ilustrar la efectividad de sus servicios.

En una versión de la encuesta vista por BuzzFeed News que está alojada en research.net, en la página tres de cinco aparece una divulgación que explica cómo Lyra comparte datos de resultados agregados y anónimos con los empleadores. Otra versión de la encuesta a la que se accede a través del portal Lyra interno de Google y vista por BuzzFeed News no dice explícitamente que se compartirán los datos de los resultados. En cambio, dice: “Sus respuestas son confidenciales y no se comparten con el empleador que patrocina su beneficio de Lyra”. Lyra se negó a responder preguntas sobre cómo divulga actualmente a los pacientes que comparte datos de resultados con los empleadores.

Google y Starbucks confirmaron que reciben datos de Lyra para juzgar el valor del servicio para los empleados. “Google no accede a los registros médicos de las personas que usan Lyra Health y no tenemos un acceso especial”, dijo la portavoz de Google, Jennifer Rodstrom, en un comunicado. Facebook y Morgan Stanley se negaron a comentar.

“La conclusión es que esto es un negocio. Así que el resultado final es el dinero”.

Los datos de resultados son tan fundamentales para la filosofía de Lyra que el nombre anterior de la empresa era Outcome Health, según un documento interno visto por BuzzFeed News. El nombre se cambió a Lyra Health antes del lanzamiento de la empresa.

“La conclusión es que esto es un negocio. Entonces, el resultado final es el dinero”, dijo un ex empleado de Lyra que trabajó en el equipo clínico de la compañía. “¿Y cómo puedes conseguir dinero? por datos Al decir: ‘Mira lo exitosos que somos. Invierta en nosotros’”.

BuzzFeed News habló con siete empleados actuales y anteriores de Google, Facebook y Starbucks que vieron a los terapeutas de Lyra y estaban molestos por el intercambio de datos de resultados. A un exempleado de Facebook, que trabajó en iniciativas de privacidad en el gigante tecnológico, le preocupaba que se pudiera abusar de los datos, incluso si se agregaban y anonimizaban. “Entiendo que los empleadores quieran medir la eficacia de sus programas”, dijo el exempleado, pero es “completamente inapropiado” compartir datos tan confidenciales.

Aparte de la divulgación en algunas encuestas, Lyra ha presentado sus prácticas de datos en una política de privacidad, un documento de más de 5000 palabras que se encuentra en la parte inferior de su sitio web. La compañía dice que el intercambio de datos cumple con la Ley de Responsabilidad y Portabilidad de Seguros Médicos de 1996 (HIPAA), que regula el uso de la información médica. El aviso HIPAA de la compañía, que también se encuentra en la parte inferior de su sitio web, dice que Lyra comparte datos de pacientes “para respaldar nuestras operaciones comerciales”.

Vanderhorst dijo que los nuevos usuarios deben reconocer tanto la política de privacidad como el aviso de HIPAA al configurar sus cuentas.

Aún así, algunos pacientes no sabían sobre el intercambio de datos. De los siete empleados actuales y anteriores de Google, Facebook y Starbucks que hablaron con BuzzFeed News, todos menos uno dijeron que no sabían que los datos de estas encuestas podrían compartirse con los empleadores de ninguna forma. “Es impactante para mí”, dijo una exempleada de Google, quien dijo que no recordaba la divulgación de datos mientras completaba las encuestas. “No tenía idea de que estaban haciendo eso”.

Lyra defendió cómo comunica sus prácticas de privacidad a los pacientes. “Lyra sigue todas las regulaciones de EE. UU. con respecto a la privacidad”, dijo Vanderhorst en un comunicado. “Nuestra política de privacidad tiene un formato estándar y brinda información detallada sobre nuestras prácticas”.

Jennifer King, becaria de política de privacidad y datos en el Instituto de Inteligencia Artificial Centrada en el Humano de la Universidad de Stanford, dijo que existe el proceso legal de obtener el consentimiento, y luego está la “cuestión moral” de asegurarse de que las personas entiendan completamente. La capa adicional de compartir información con un empleador lo hace aún más problemático. “La gente tiende a sentirse un poco mejor con la agregación, pero en el lugar de trabajo es diferente”, dijo.

Lyra no es la única empresa en el espacio de la salud mental que enfrenta preguntas sobre qué está haciendo con los datos de usuarios anónimos. Loris.ai, la empresa socia de Crisis Text Line, una organización sin fines de lucro, enfrenta críticas después de que Politico informara que utiliza datos anónimos pero confidenciales extraídos de conversaciones en la línea directa de suicidio basada en texto con fines comerciales.

Algunos terapeutas de Lyra tampoco sabían que Lyra comparte datos de resultados con los empleadores. BuzzFeed News entrevistó a ocho terapeutas actuales y anteriores de Lyra, y seis de ellos dijeron que no sabían sobre el intercambio de datos. Los terapeutas dijeron que el consentimiento significativo de los pacientes es crucial, aunque sus nombres no se adjuntan a los datos.

A algunos pacientes y terapeutas no les importó que los datos se compartieran de forma anónima, ya que podría ser valioso para una empresa saber si su fuerza laboral está deprimida o llena de ansiedad. Pero un ex terapeuta de Lyra dice que los pacientes deben elegir lo que quieren compartir. “Deberían poder seleccionar si están dispuestos a que se informen sus resultados”, dijo.

La recopilación de datos fue un tema clave para algunos terapeutas durante los primeros días de la empresa, según tres ex empleados de Lyra. Dijeron que las preocupaciones sobre el intercambio de datos dificultaron la contratación de terapeutas para trabajar con Lyra cuando la empresa estaba comenzando. Cuando se les informó a los líderes de la empresa sobre esas dudas, se negaron a tomarlas, dijeron los exempleados.

“Lyra tiene un gran respeto por el conocimiento clínico, la experiencia y la pericia de nuestros proveedores”, dijo Vanderhorst en un comunicado. “El reclutamiento y la retención de proveedores son esenciales para la atención que brindamos a los miembros y el éxito de nuestra organización”.

La compañía también ha tenido antecedentes de que sus médicos se sintieran ignorados, dijeron dos ex empleados. Si bien los equipos de ingeniería y datos fueron valorados por sus aportes, las personas del equipo clínico fueron tratadas como “ciudadanos de segunda clase”, dijo uno de los exempleados. Ese empleado dijo que la cultura se inculcó cuando Ebersman comenzó a traer personas que solían trabajar en Facebook. Lyra no abordó estas acusaciones y Facebook se negó a comentar.

“Un tipo de enfoque de Gran Hermano”

Chelsey Glasson, ex empleada de Google y Facebook, recientemente hizo sonar la alarma sobre los EAP como Lyra y el posible conflicto de intereses que podría ocurrir cuando su empleador paga por su terapeuta. En un artículo de opinión de octubre para Insider, pidió más transparencia en la relación entre los proveedores externos de salud mental y los empleadores. Glasson, quien está demandando a Google después de una supuesta discriminación por embarazo, había buscado notas de sesión de su terapeuta Lyra como parte de la demanda. Google luego exigió y recibió las notas también. Después de eso, dijo Glasson, su terapeuta llamó e indicó que ya no se sentía cómoda viéndola.

Google se negó a comentar. El exterapeuta de Glasson no respondió a múltiples solicitudes de comentarios. En la política de privacidad de Lyra, la compañía dice que puede usar información personal para “cumplir con nuestras obligaciones legales”.

“Todo es inapropiado y poco ético”, dijo Glasson sobre las prácticas comerciales de Lyra. “La gente no tiene idea de que esto está sucediendo”.

Glasson, que reside en Seattle, presentó una denuncia contra su terapeuta y la situación ahora está siendo investigada por el Departamento de Salud del Estado de Washington, según los correos electrónicos vistos por BuzzFeed News.

“Todo es inapropiado y poco ético”, dijo Glasson sobre las prácticas comerciales de Lyra. “La gente no tiene idea de que esto está sucediendo”.

Después de consultar con Glasson, la senadora del estado de Washington, Karen Keizer, envió una carta en noviembre al secretario de salud del estado sobre el “conflicto potencial” entre empleados y empleadores que participan en los EAP, según una copia de la carta vista por BuzzFeed News. Luego, en diciembre, Keizer presentó una legislación que apunta a otorgar a los trabajadores más derechos en lo que respecta a los EAP. El proyecto de ley, llamado SB 5564, prohibiría a los empleadores disciplinar a los trabajadores en función de su decisión de ver, o no ver, a un terapeuta a través de un EAP. También haría ilegal que un empleador obtenga información de identificación individual sobre un empleado. Un comité del Senado estatal discutió el proyecto de ley en una audiencia el mes pasado.

“Nuestras grandes empresas de tecnología no tienen la privacidad personal con la misma consideración que creo que deberían”, dijo Keizer a BuzzFeed News. “Han estado extrayendo información de privacidad personal durante años y para su propio resultado final. Pero cuando lo usan con sus empleados, eso es algo completamente diferente. Es realmente un tipo de enfoque de hermano mayor”.

Las políticas de Lyra hacen que al menos algunas personas desconfíen de buscar terapia a través de sus empleadores. Después de que el New York Times informara sobre la experiencia de Glasson con su terapeuta en julio, algunos trabajadores de Google se volvieron menos propensos a utilizar los servicios EAP proporcionados por Lyra, dijo el Sindicato de Trabajadores de Alphabet, que representa a los trabajadores de Google y su empresa matriz. Google se negó a comentar.

“Me sorprendió cuando me enteré de su historia”, dijo un ex empleado de Google. “Realmente arrojó mucha luz sobre la relación que tiene el consejero con la empresa”.

Fuente: BuzzFeed News

Enlace: https://www.buzzfeednews.com/article/richardnieva/lyra-health-ethical-conflicts-google-facebook

febrero 18, 2022

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Comité Editorial

Director
Dr. Stevenson Marulanda Plata

Editora
Maricielo Acero Rodríguez

Asesores Médicos
Dr. Jorge Diego Acosta Correa
Dra. Ivonne Díaz Yamal
Dr. Oswaldo Alfonso Borraez
Dr. Samuel Barbosa

Contacto comercial
Mary Stella Ardila Guzmán

NOSOTROS

Epicrisis es el órgano oficial de comunicación del Colegio Médico Colombiano. La opinión y conceptos personales expresados en los artículos firmados por un tercero no reflejan la posición de Epicrisis o el Colegio Médico Colombiano.

PBX: (+571) 746 3489 – Celular:(+57) 314 566 2174 – (+57) 323 232 4543 – (+57) 323 232 7752 – (+57) 314 566 2198Email : pqrs@colegiomedicocolombiano.org
Dirección: Carrera 7 # 69 – 17 – Bogotá, Colombia