Biden afirma que la pandemia Covid terminó en Estados Unidos
Internacional
Biden afirma que la pandemia Covid terminó en Estados Unidos
El mandatario aseguró que su gobierno sigue trabajando contra los problemas generados por el coronavirus y que la inflación en el país será controlada.
Redacción Intolerancia