Desmitificando el Trabajo Social
El Trabajo Social es la profesión que promueve el cambio y el desarrollo social, buscando el bienestar de las personas así como cambios sociales saludables basados en los principios de la justicia social, los derechos humanos, la responsabilidad colectiva y el respeto a la diversidad. Pero que piensan los ciudadanos cuando les preguntamos: ¿Que es un/a Trabajador/a … Leer más