Florida anuncia el fin de las vacunaciones obligatorias
Las principales agrupaciones de medicina ya han advertido del mayor riesgo de enfermedades, discapacidad y muertes
En el estado de Florida la vacunación dejará de ser obligatoria. Será el primer estado de Estados Unidos en dar este paso. Su máximo responsable de Salud ha comparado el calendario de vacunación con la esclavitud. La medida defiende el derecho de los padres a decidir sobre la salud de sus hijos, pero las principales agrupaciones de medicina advierten ya del mayor riesgo de enfermedades, discapacidad y muertes al que se enfrentan.