La pandemia se acabó en EEUU, según Joe Biden  

La pandemia se acabó en EEUU, según Joe Biden  

La pandemia se acabó en EEUU. Este fue un anuncio que hizo el mandatario en días recientes ante diferentes medios de comunicación. Perp la pregunta que se hace parte de la población es qué tan cierto es que se terminó la pandemia del Covid.   Dadilia Garcés,...