Usos y abusos de las evaluaciones: Teoría, Retórica y Práctica


Con la misma editorial que publicó parte de mi tesis sobre la gestión de la información en las organizaciones de desarrollo, estoy en estos momentos completando otra publicación sobre “la gestión del conocimiento y el uso de las evaluaciones”.

Aunque aparece en repetidas ocasiones en el lV plan Director y en el Plan de Evaluaciones de la Cooperación Española, no hay mucha literatura que hable explícitamente sobre la “gestión del conocimiento de las evaluaciones”(os animo a sentir lo frústrante que es googlear “knowledge management of evaluations”). Sin embargo al contactar con algunos colegas a nivel internacional, la mayoría me refieren al concepto de “uso de las evaluaciones”.

La discusión en torno al “uso de las evaluaciones” es un tema que ha sido y sigue siendo importante en el mundillo de los locos de la evaluación. Así está reciente la publicación que recoge una buena sistematización en castellano:“Determinación de los principios básicos para lograr una mayor calidad y utilización de las evaluaciones” de mi colega Rafael Monterde (mundialmente conocido por su blog Evaluateca). Recientemente (2013) ha sido publicado el libro “Enhancing Evaluation Use” con Marlène Läubli Loud y John Mayne como editores.

Finalmente el próximo mes, los días 20 y 21 de marzo tendrá lugar la conferencia CDI Conference: Improving the use of M&E processes and findings, organizada en Wageningen por el equipo de Cecile Custer.

Pero volviendo a la “gestión del conocimiento” de las evaluaciones: ¿tiene sentido tratarlo más allá del mero”uso”? Creo que sí porque, aunque se solapan de manera importante, el enfoque de “gestión del conocimiento de evaluaciones” añade matices que no tiene el “uso de evaluaciones”.

La “gestión del conocimiento” es un instrumento que posibilita el uso de las evaluaciones. Porque el conocimiento surgido del proceso evaluativo·”debería” ser recopilado, sistematizado, almacenado y difundido…para poder ser utilizado de forma óptima. Y entonces estamos hablando de una estrategia de gestión del conocimiento y de agentes de cambio, esto es de gestores (de la evaluación o del conocimiento surgido de la misma). Aun así el concepto de  “gestión del conocimiento” tiene tantos registros que también es un campo a acotar (qué entendemos por conocimiento, usos y usuarios del conocimiento, quién y para qué se construye el conocimiento, el conocimiento tiene claras implicaciones de género)

Retos de la gestión del conocimiento

¿Cuáles son los mayores obstáculos para la gestión del conocimiento de las evaluaciones? De nuevo Nick Milton nos indica algunos: (1) El conocimiento se concibe como poder individual o no colectivo. (2) El sub-óptimo rol de lo colectivo y las nuevas relaciones, del trabajo en equipo y la colaboración. (4) El enfoque local no se percibe como oportunidad para el desarrollo de comunidades de práctica. (5) Respeto y relación de confianza como principios de los intercambios. (6) Las personas, a menudo con mucha razón, tienen miedo de que los fallos o errores se penalizarán, y por lo tanto no están dispuestos a compartir lo que pueden ver como un fracaso. (7) Los trabajadores sienten que no se les paga para compartir. (8) Las personas que sienten que no tienen tiempo para compartir. Esta es una barrera muy real, ya que la mayoría de la gente está ” a tope ” en todo momento. Así que tenemos que hacer que el intercambio de conocimientos tan rápido y eficiente como sea posible, porque realmente no tenemos tiempo para no compartir.

También según Milton un marco de la gestión del conocimiento es un sistema completo de personas, procesos, tecnología y gestión, que asegura que la gestión del conocimiento se aplica de forma sistemática y eficaz para aplicar y utilizar la evaluación (su proceso y sus resultados). Por tanto en el caso de las evaluaciones, necesitamos actores implicados, gestores, procesos, tecnología y gestión para asegurar su uso.

Usos y abusos de las evaluaciones

Como se indica en el libro de Lübli y Mayne, la deficiente utilización de las evaluaciones en las organizaciones es un tema recurrente en la literatura sobre evaluaciones. Y los artículos sobre evaluaciones de éxito en las organizaciones son más difíciles de encontrar; quizás debido a los desincentivos para hacerlo o porque cuando se hace, por muy bien que se haga, parece ser “documentación gris”, propaganda o panfletos institucionales vamos. Pero en esa dirección, en la de evaluaciones exitosas, en este momento se están desarrollando interesantes procesos como el de las evaluaciones que marcan la diferencia.

Volviendo a la deficiencia del uso, por un lado la literatura da pistas sobre cómo solventar esos retos, algunos pasan por: (1) producir mejores evaluaciones, (2) acercarse a los decisores políticos, (3) construir una cultura de evaluación, (4) comunicar mejor. Hay además otro cuerpo de publicaciones sobre aprendizaje organizacional que se centra en (1) cómo aprenden las organizaciones, (2) cómo la evaluación se relaciona con el aprendizaje organizacional. Mi experiencia es que a problemas complejos, soluciones complejas (cualquier estudiante de álgebra o cálculo lo sabe). Los retos de la vida real son una mezcla de los anteriores más unos cuantos más…empezando por la existencia o no de verdadera voluntad de cambio en los dirigentes, líderes o mandamases que centralizan poder y decisiones…aunque en menor medida centralicen rendición de cuentas…

Usos y usuarios, Racionalidad y Motivación de las evaluaciones

El uso de las evaluaciones está directamente relacionado con quién, qué, por qué, para qué se usan y se implican en las evaluaciones.

¿Quiénes usan las evaluaciones? ¿Qué usos? Los usuarios y los usos están relacionados. Podemos encontrar (a) usuarios de evaluación esperados o intencionales o intencionados (implicados o no), (b) usuarios no esperados, lo que también se llama “otras audiencias”. En este segundo apartado es en el que se diferencia la “Evaluación Enfocada a la Utilidad” (recordemos aquí a Ricardo Ramírez y Dal Brodhead  por no citar siempre al omnipresente Patton) y la “Gestión del Conocimiento de las Evaluaciones” en sentido más amplio. Y éste es uno de los grandes retos: ¿Por qué desde hace años las evaluaciones en todo el mundo vienen repitiendo las mismas conclusiones y recomendaciones?¿Por qué no se aprende ni del mal ajeno ni del propio? ¿Cómo lograr que utilicen la evaluación grupos o individuos que no se han implicado directamente en el proceso evaluativo?

Relacionado con el tipo de uso, hay muchas clasificaciones en base al uso de las evaluaciones (es especialmente interesante la “Investigación sobre el uso de las evaluaciones” de Johnson et al (2009)). También hay instituciones como el CAD (The DAC Network on Development Evaluation – 30 years of strengthening learning in development), UNEG (Report of the UNEG Evaluation Practice Exchange (EPE) 2013 Seminar), ECG (Knowledge Generation and Sharing by Multilateral Development Banks) o el propio DFID (ODI: Strengthening learning from research and evaluation: going with the grain ) que han profundizado en esa dirección. Mi ambición ha sido tener una visión sistémica, tratando de comprender la teoría del cambio de la evaluación y el rol del conocimiento que va surgiendo en cada una de sus fases. Esto puede dar cabida a todos ellos, y de alguna forma contiende tanto los postulados de los más recientes y completos marcos teóricos sobre el uso de evaluaciones (como los de Kirkhart (2000) y Henry & Mark (2003). Por ello enfoco la gestión del conocimiento de la evaluación situada en un marco que divide el contexto, diseño, proceso, estructura y resultados de la evaluación. El propio manual de gestión de evaluaciones de la Cooperación Española tiene un marcado enfoque de “proceso” evaluativo. En este proceso podemos distinguir la fase de (1) diseño evaluativo (que culmina con la realización de los TdR y la selección del equipo evaluador y su propuesta), (2) la ejecución de la evaluación y (3) la difusión y comunicación de resultados. Aunque cuando la gente piensa en una evaluación tiene en mente la parte de la ejecución, cuando se piensa en “el uso”, nos solemos centrar en la parte de difusión y comunicación. Sin embargo la gestión del conocimiento de la evaluación comienza en su fase de diseño. Claro está que esta gestión del conocimiento puede ser emergente o planificada. El conocimiento que surge en cada fase, puede ser gestionado o no y puede ser utilizado o no. Hay muchos usos o utilidades normalmente olvidados, basados en conocimiento tácito, por citar dos ejemplos: (1) los evaluadores externos independientes de recopilar y aprender las ofertas ganadoras en las licitaciones, (2) los gestores de la evaluación de sistematizar fortalezas y debilidades de los a veces poco participativos comités de seguimiento de las evaluaciones.

En cada una de estas tres fases a su vez, adaptando a partir de Verdung (1997), el uso de la evaluación puede ser: (1) Uso directo e interno, para la toma de decisiones inmediata de los usuarios esperados (uso instrumental), (2) Uso indirecto interno o externo, para usuarios no esperados u otras audiencias más amplias (uso conceptual), (3) Uso de proceso y (4) Uso retórico, ya que se evalúa porque hay que evaluar, de cara a la galería, pero sin pretender en realidad un propósito más allá de la autojustificación o autolegitimación (uso justificativo, legitimitativo, ritual, simbólico…). Este cuarto uso es considerado como ilegítimo, es decir como un “abuso” evaluativo, aunque por desgracia predomine mucho. Sin embargo hemos de señalar que en determinados “contextos y estructuras” en las que se da el proceso evaluativo no se da la más mínima opción a los otros tres tipos de uso. Contandriopoulos & Brousselle (2012) en su “Evaluation models and evaluation use”,  describen algunas de las barreras impuestas  por el “contexto del uso”: ideología y actores polarizados, que da lugar a la inexistencia de arena política para discutir y presentar de forma honesta fracasos y logros .

La capacidad de influencia por la gestión del conocimiento de las evaluaciones

En un mundo ideal desde el diseño de la evaluación se establecería una estrategia de gestión del conocimiento, con el fin de (1) establecer usos por fases y de (2) establecer los diferentes niveles de influencia, a “nivel individual, relacional o colectivo”

Dada la importancia de que sea un proceso planificado y no emergente, 3ie y ODI señalan lo ventajoso de que se presente un plan de Influencia política, que identifique: (1) qué cambios (incluyendo la Teoría del Cambio) en la actitud, el discurso, los procedimientos, el contenido de la política o la legislación , o los comportamientos , y (2) a qué partes interesadas o campeones del cambio (los responsables políticos, los medios de comunicación, organizaciones de la sociedad civil, asociaciones profesionales y comerciales clave de política sindicatos, grupos religiosos , etc) se dirigen.

El gran reto es comprender en profundidad la Teoría del Cambio de nuestra evaluación y en especial visualizar antes de tiempo y abrir la caja negra del proceso final de utilización o uso- ¿Podemos tener claro cómo son los procesos de influencia de las evaluaciones?¿En nuestros propias organizaciones, contextos y procesos evaluativos cómo identificar los mecanismos que favorecen los usos que nos proponemos? Tenemos una interesante profundización en el concepto de “mecanismos” de cambio en evaluación basada en teoría de programas en este artículo de Astbury y Leeuw (2010)

Algunas recetas para los inquietos

Aunque lo más importante es resolver los cuellos de botella estructurales, también se pueden dar algunos mecanismos para mejorar el uso de las evaluaciones. Y estos mecanismos son muy variados: Hay muchas maneras de comunicar, compartir o difundir información de las evaluaciones a las audiencias más amplias más allá de los usuarios esperados. Es esencial determinar los mecanismos del cambio que permitan o desatasquen dichos procesos de influencia. Para que la información de las evaluaciones sea fácil de usar ha de ser gestionada de forma que se transforme en un conocimiento de fácil acceso y atractivo para el público. A continuación se presentan algunos productos o procesos de la fase de difusión y comunicación, típicas acciones de gestión del conocimiento, muchas de los cuales pueden ser requisitos para los evaluadores en los TdR: (1) Elaborar diferentes formatos, con resúmenes concisos adaptados a audiencias diversas, en un lenguaje sencillo que permita circular ampliamente (2) Situar en los sitios web públicos de la organización los informes de evaluación y otros productos basados en las evaluaciones, siempre muy claros y a poder ser en las lenguas locales. (3) Organizar reuniones con las partes interesadas para discutir las lecciones de la evaluación. (4) Incorporar hallazgos de la evaluación y las lecciones aprendidas en las publicaciones existentes en la organización, tales como informes anuales, boletines de noticias o boletines. (5) Difundir las conclusiones y lecciones en las asambleas y reuniones anuales y foros con los medios de comunicación. (6) Desarrollar formatos adaptados sobre las actividades, los logros y retos de la organización. (5) Elaborar resúmenes concisos  en un lenguaje sencillo y circular ampliamente. (6) Publicar un artículo para una revista académica con base en los hallazgos de la evaluación. (7) Presentar una ponencia en una conferencia relacionada con el área objeto de evaluación. (8) Invitar a los evaluadores, investigadores y académicos locales a discutir los datos recogidos por la evaluación o para discutir la metodología y los métodos aplicados en la evaluación de la evaluación. (9) Compartir los hallazgos, recomendaciones y lecciones aprendidas en las sesiones y talleres de capacitación del personal, las contrapartes gubernamentales y otros socios. (10)  Compartir las lecciones a través de redes de conocimiento, notas sobre prácticas dentro y fuera de la organización. (11) Elaborar una respuesta de gestión a la evaluación por parte de la organización. Hacer su seguimiento y exponerlo públicamente.

Un final y un comienzo – An end and a beginning – Une fin et un début


Un final y un comienzo

 

Esto es un comienzo que hace tiempo tenía previsto, aunque llega más tarde de lo que pensé. Este blog quiero dedicarlo a los menesteres que se relacionan más con aquello con lo que me ayuda a pagar la hipoteca cada mes: mi profesión.

 

Y ¿a qué me dedico durante las horas de labor?…sería difícil explicarlo así que trataré de hacerlo en los próximos posts, poco a poco.

 

En este primer post quería también decir que ha terminado una etapa y que por eso ahora es el momento de comenzar aquí. El 24 de febrero de 2009 (POR FIN) defendí mi tesis doctoral.

 

No sé si puede interesar a mucha más gente que a mi familia y a los pobres miembros del tribunal pero trato de resumir en unos párrafos algunas de las conclusiones de la tesis:

 

La investigación giraba en torno a la utilización y la utilidad de la información manejada por una agencia de cooperación para el desarrollo (de países pobres) descentralizada española en base a sus intervenciones en los países socios. Se basaba en tres ejes: Primero, análisis de las intervenciones en su fase de formulación, seguimiento y evaluación, así como de las valoraciones de los técnicos de la agencia donante. Segundo, análisis de percepciones de diversos actores implicados. Tercero, análisis organizacional de la motivación, la capacidad y el entorno institucional de la agencia donante.

 

…no quiero incitar a anti marcologistas a una enmienda a la totalidad, en fin, me considero un pragmático…mientras no haya nada mejor tendremos que tratar de hacerlo lo mejor posible…y dejo a otros más sesudos resolver el mundo.

 

 

Las conclusiones reflejan (cómo no, una vez más) el salto entre la teoría (¿el discurso, la retórica?) y la práctica:

 

1. La lógica de intervención en general permanece inalterada durante el ciclo de las intervenciones, de forma que lo previsto en la identificación y formulación se convierte en realidad. Como reflexión señalo que la falta de modificación del modelo lógico puede, a veces, estar asociado a cierta falta de utilidad o flexibilidad.

 

2. Hay un claro desequilibrio hacia la rendición de cuentas (sobre el aprendizaje) en el uso de todo el proceso. Reconociendo que ambos paradigmas, rendición de cuentas y aprendizaje, son inseparables, se aprecian pocos indicios de toma de decisiones al máximo nivel estratégico en base a aprendizajes del ciclo de las intervenciones: Los indicadores son poco útiles; el seguimiento desde la agencia donante no es analítico y no alimenta resultados organizacionales; en las administraciones públicas españolas prima la planificación en base a presupuesto (a pesar de los deseos “de algunos” de hacerlo con otros enfoques)

 

3. Las demandas de información de la agencia donante no responden a una estrategia de gestión de la información que aclare qué información, para qué y cómo ha de tratarse. Las demandas no son funcionales al no tener una utilidad estratégica.  

 

Algunas recomendaciones que se dieron en su momento a la agencia donante:

 

1. Los sistemas de información en base a la gestión de intervenciones  no tienen una regla universal, sino que cada organización, en función de su motivación, su capacidad y su entorno específico ha de adaptarse. Puede parecer una perogrullada, pero la realidad te demuestra que no lo es. En fin de otra manera no existiría la palabra gestión…pero es que en este sector a cualquier cosas se le llama cualquier cosa  (participación, gestión, ciclo…) sin ningún tipo de pudor o problema…

 

2. Las organizaciones deberían

ü      Tratar la información como un recurso cuya cantidad y calidad hay que planificar, presupuestar y ¡ evaluar ¡

ü      Tratar de fijarse metas organizacionales en las que se pueda atribuir qué departamentos cumplen sus funciones correctamente y cuáles han de mejorar (e incentivar según los casos)

ü      Dotarse de liderazgos fuertes que persigan una gestión interna coherente de la información

 

Como última reflexión, antes de esta primera despedida, la investigación concluye que lo que merece la pena merece la pena hacerlo bien. Y para ello, las organizaciones, los profesionales de este sector deberían reflexionar acerca de la necesidad de estrategias planificadas (no emergentes) de gestión de la información, de la necesidad de considerar la motivación, la capacidad y el entorno específico de cada organización, y de la necesidad de aprender del pasada para evitar la huida (activista) hacia adelante. En fin también concluye que, a falta de que al máximo nivel de decisión se incentive de forma más rápida en esta dirección, la sociedad civil debería pedir resultados de desarrollo a los que nuestra cooperación contribuye y productos atribuibles al buen desempeño organizacional de los actores de desarrollo: (0,7% ¿para qué?)

 

Hasta la próxima

 

PD: Si a alguien le interesa la investigación que me lo indique

 


An end and a beginning

 

This is a beginning that was long expected, but arrived later than I thought. I have another blog more personal and related to literary topics, but otherwise I dedicate this to other duties, related to what these little things that help me to live every months.

And what I do during these working hours? … it would be difficult to explain so I will try to do so in the next few posts, little by little.

In this first post I wanted also to say that it has been completed one important stage and that is why now it is the time to start here: On February 24, 2009, I got my PhD.

I do not know if it can attract far more people than my family and the members of the Phd. tribunal but I will try to summarize in a few paragraphs some of the conclusions of my Phd.:

The research was about the use and usefulness of the information managed by a decentralized Spanish donor agency, based on its interventions in partner countries. It was based on three pillars: First, analysis of interventions in their stage of development, monitoring and evaluation, as well as technical assessments of the donor agency. Second, analysis of perceptions of various stakeholders. Third, organizational analysis of the motivation, capacity and institutional environment of the donor agency.

… I do not want to incite anti frameworkers to an amendment to the full, in order, I consider myself a pragmatist … as far as there is nothing better “in practice” on the field, we will try to do our best … and I let other more clever brains solve the world

 

The findings show (yes, again) the gap between theory (the rhetoric?) and practice:

1. The intervention logic in general remains unchanged during the course of interventions, so that the provisions in the identification and development becomes a reality. Noted, as a reflection, that the lack of change of the logic model can sometimes be associated with a lack of utility or flexibility.

2. There is a clear imbalance toward accountability (on learning) in the use of the entire process. Recognizing that both paradigms, accountability and learning are inseparable, there are few signs of making strategic decisions at the highest level based on learning cycle interventions: Indicators are useless, Monitoring from donor agency is not analytical and they do not feed organizational information needs; in Spanish Public governments mangement is on planning based budget (despite the wishes of some to do it with other approaches)

3. The demands for information from the donor agencies do not respond to an information management to clarify what information for what and how it is treated. The information demands are not functional due to not having strategic utility.

Some recommendations were made to the donor agency:

1. Information systems based on management interventions have not a universal rule, but each organization has to adapt depending on its motivation, its capacity and its specific environment

2. Organizations should
 Treat the information as a resource whose quantity and quality need to be planned, budgeted and evaluated (¡¡)
 Try to set the organizational goals that can be assigned to specific departments performance, so as to incentive them.
 Providing strong leadership to pursue a coherent internal information management

As a final thought the investigation concludes that what is worth is worth doing well. To do this, organizations and professionals in this sector, should consider the necessity of planned strategies (non-emergent) information management, the need to consider the motivation, capabilities and environment of each organization, and the need to learn from the past to prevent the escape (activism) forward. Finally, in the absence of decisions at the highest level related to getting faster incentives to a better information management in the development dector, the (Sapnish and partner countries) civil society should ask to decision makers and politics for development results to which Spanish development cooperation contributes in one side, and in the other which kind of performance have our development (public and NGDO) organizations (0.7% for what?)

Until next time

PS: If anyone is interested in this research, please ask me

 

And thanks for correcting my English if neccesary…

 

 

 

Une fin et un début

 

 

Ceci est un début qui a été longtemps attendu, mais est arrivé plus tard que je pensais. J’ai un autre blog, c’est-personnelle et des thèmes littéraires, mais sinon je vais consacrer ce blog à d’autres fonctions, c’est-à-dire à se que me permet de payer l’hypothèque chaque mois : ma profession.ü ressource dont la quantité et la qualité nécessaire à la planification, de budget et d’évaluer ¡¡
 Essayer de fixer des objectifs de l’organisation
ü
qui peuvent être attribuées ministères exécutent leurs tâches correctement et ce afin d’améliorer (et à encourager, selon le cas)
 Assurer un leadership
ü
fort à poursuivre une stratégie cohérente de gestion interne de l’information

Et ce que je suis pendant les heures de travail … il serait difficile à expliquer, je vais essayer de le faire dans les prochains postes, peu à peu.

Dans ce premier message, ce que je voulais dire aussi est qu’il a terminé une étape pour mois et c’est pourquoi le moment est venu de commencer ici. Le 24 Février, 2009, j´ai soutenu ma thèse de doctorat.

Je ne sais pas si elle peut attirer beaucoup plus de personnes que ma famille et les pauvres membres du tribunal, mais je vais essayer de résumer en quelques points certaines des conclusions de la thèse:

La recherche a porté sur l’utilisation et l’utilité de l’information gérée par une agence donatrice décentralisé, sur la base de leurs interventions dans les pays partenaires. Il est fondé sur trois piliers: Tout d’abord, l’analyse des interventions dans leur stade de développement, de suivi et d’évaluation, ainsi que de l’analysis organisationnel de l’organisme donateur. Deuxièmement, l’analyse des perceptions des différentes parties prenantes. Troisièmement, l’analyse organisationnelle de la motivation, la capacité et de l’environnement institutionnel de l’organisme donateur.

… Je ne veux pas d’inciter à la lutte aux contre-cadrelogistes, à son amendement à l’application intégrale, dans l’ordre, je me considère comme un pragmatique … jusqu’à ce que il n’ya rien de mieux sur le terrain, nous essayerons de faire de notre mieux … et je laisse d´autres à résoudre le monde.

Les résultats montrent (oui, encore) de saut entre la théorie (la rhétorique?) et de la pratique:

1. La logique de l’intervention en général demeure inchangé au cours des interventions, de sorte que les dispositions de l’identification et le développement devienne une réalité. A noter comme le reflet de l’absence de changement du modèle logique peut parfois être associée à un manque d’utilité ou de flexibilité.

2. Il y a un net déséquilibre en direction de la reddition de comptes (sur l’apprentissage) dans l’utilisation de l’ensemble du processus. Reconnaissant que les deux paradigmes, la responsabilisation et l’apprentissage sont indissociables, il ya peu de signes de prendre des décisions stratégiques au plus haut niveau, basée sur l’apprentissage du cycle d’interventions: les indicateurs peu utiles, le suivi depuis le bailleur de fonds n´est pas analytique et la performance de l’organisation n’est pas alimenté de ce montant d´information; et les administrations publiques espagnoles font une planification axée sur le budget (en dépit de la volonté de certains de le faire avec d’autres approches)

3. Les demandes de information émanant d’organismes donateurs ne répondent pas à une gestion de l’information pour clarifier quelle information, pour quoi et comment elle est traitée. Les exigences ne sont pas fonctionnels parce qu´il n´y a pas une utilité stratégique.

Certaines recommandations ont été faites au organisme donateur:

1. Les systèmes d’information fondée sur la gestion des interventions ne sont pas une règle universelle, mais chaque organisation, en fonction de leur motivation, leur capacité et leur environnement spécifique doit s’adapter. (Dans l’ordre ou pas, là … mais le mot est que la gestion de ce secteur est appelé rien rien du tout (la participation, la gestion, le cycle …), sans honte ou de problème …

2. Les organisations doivent
 

Traiter l’information comme une ressource dont la quantité et la qualité nécessaire à la planification, de budget et d’évaluer ¡¡

Essayer de fixer des objectifs de l’organisation qui peuvent être attribuées aux département qui exécutent leurs tâches correctement, afin d’améliorer (et à encourager, selon le cas)

Assurer un leadership fort pour poursuivre une stratégie cohérente de gestion interne de l’information

Comme une dernière pensée, avant le premier renvoi, l’enquête conclut que ce qui vaut la peine vaut bien d´être fait. Pour ce faire, les organisations, les professionnels de ce secteur devraient envisager la nécessité de stratégies planifiées (non émergentes) pour la gestion de l’information ; la nécessité de considérer la motivation, les capacités et l’environnement de chaque organisation ; et la nécessité de tirer les leçons du passé pour empêcher l’évasion (activiste) vers l’avant. Dans le but également de constater que, en l’absence de cette décision au plus haut niveau de l’incitation plus rapide dans cette direction, la société civile espagnole et de pays partenaire devraient demander des résultats du développement à laquelle la coopération (pour le développement), et comme est-ce que c´est la performance des acteurs développement (0,7% pour quoi?)

Jusqu’à la prochaine fois

PS: Si quelqu’un est intéressé dans ce dossier, merci de me demander

 

 

Et merci de corriger mon française en case ou…