El trabajo social se define como la profesión “que promueve el cambio social, la resolución de problemas en las relaciones humanas, y el fortalecimiento y la liberación del pueblo, para incrementar el bienestar. Mediante la utilización de teorías sobre comportamiento humano y los sistemas sociales, el trabajo social interviene en los puntos en los que las personas interactúan con su entorno. Los principios de los Derechos Humanos y la Justicia Social son fundamentales para el Trabajo Social”.

 

 

0
0
0
s2sdefault