Florida anuncia el fin de las vacunaciones obligatorias

Las principales agrupaciones de medicina ya han advertido del mayor riesgo de enfermedades, discapacidad y muertes

05 de septiembre 2025 - 10:17

Tallahassee, Florida (EEUU)

En el estado de Florida la vacunación dejará de ser obligatoria. Será el primer estado de Estados Unidos en dar este paso. Su máximo responsable de Salud ha comparado el calendario de vacunación con la esclavitud. La medida defiende el derecho de los padres a decidir sobre la salud de sus hijos, pero las principales agrupaciones de medicina advierten ya del mayor riesgo de enfermedades, discapacidad y muertes al que se enfrentan.

Reuters
Editado
Internacional
0m 28s
Sonido Ambiente

Más videos

Actualidad