La concienciación social acerca de la importancia de cuidar y proteger la piel del sol veraniego es cada vez mayor, pero durante los meses de frío esta parte de nuestro cuerpo se convierte en la gran olvidada. Sin embargo, hay muchos factores propios del invierno que la dañan y que producen, a largo plazo, deshidratación y envejecimiento.