Bühne des Kapitels / Moduls
Zur Evaluation von Praxisansätzen der Extremismusprävention
4. Zur Evaluation von Praxisansätzen der Extremismusprävention
Inhalt des Kapitels / Moduls
Aus der Perspektive von Angebotsdurchführenden, also von beim Angebotsträger beschäftigten Hauptamtlichen, Honorarkräften und Ehrenamtlichen, stellen sich Evaluationsanliegen im Allgemeinen anders dar, besonders dann, wenn diese über Selbstevaluationsaufgaben hinausgehen und eine externe Evaluation beauftragt wird. Auf der einen Seite stellt sich dann bei ihnen nicht selten eine Reihe von Befürchtungen ein: Kommen jetzt Kontrolleure von außen, die uns in die Karten schauen, unsere Arbeit vermessen und unsere institutionelle und persönliche Leistung bewerten? Sind dadurch nicht letztendlich unsere Stellen zumindest teilweise gefährdet oder könnte nicht zumindest die Außenwirkung unserer Einrichtung und darüber hinaus vielleicht auch die unseres Trägers negativ beeinflusst werden? Ist es nicht zu erwarten, dass die evaluierenden Personen abgehobene Wissenschaftlerinnen und Wissenschaftler sind, die von den Realitäten der Praxis kaum Kenntnis haben, und birgt nicht schon deshalb eine Bewertung durch sie erhebliche Verzerrungen und Lücken und ihr Empfehlungskatalog für die Ausrichtung der künftigen Arbeit manch Unrealistisches? Ist der Aufwand, der im Zusammenhang mit der Evaluation verlangt wird – Zusammenstellung von Daten, Offenlegen von Dokumenten, Bereitstehen für Interviews, Vermittlung von Angebotsnutzerinnen und -nutzern, organisatorische Absprachen etc. –, überhaupt für uns leistbar und steht er wenigstens halbwegs in angemessener Relation zum vermutlichen Nutzen? Und gerade in der Arbeit mit Radikalisierten kommt die Problematisierung auf: Sind womöglich die Anonymität und/oder der Daten- und Vertrauensschutz unserer Klientinnen und Klienten, vielleicht sogar unsere eigene Sicherheit als Mitarbeitende durch zu viel Offenlegung gefährdet? Wie weit gefährdet der Eingriff der Evaluation den höchst fragilen Arbeitsprozess, der auf Aufbau und Erhalt vertrauensgeleiteter Arbeitsbeziehungen basiert? Ist das Vertrauen zwischen Praktiker bzw. Praktikerin und Klientin bzw. Klient erst einmal erschüttert, ist es schwierig, wenn nicht unmöglich, so hervorgerufenen Fehlentwicklungen erfolgreich zu begegnen. Will Evaluation Zugang zu unserer Klientel? Welche Wirkungen wird das auf sie haben? Und wie stelle ich ihr gegenüber Transparenz her, ohne dass das Vertrauensverhältnis gestört wird?
Solche Bedenken können sich mit einer generellen Evaluationsskepsis mischen, die davon ausgeht, dass Erfolg und Wirkung pädagogischen Handelns ganz und gar nicht messbar sind und das Vorhaben insofern wenig Mehrwert verspricht. Das gilt nicht zuletzt für die primäre bzw. universelle Prävention, zu der Maßnahmen der politischen Bildung zählen – hier sind die Grenzen tatsächlich besonders eng, in denen Erfolg im Sinne der Wirkung eines Projekts nachgewiesen werden kann. Klaus Ahlheim und Bardo Heger sprechen davon, dass allenfalls „Wirkungsspuren“ gesucht und festgestellt werden können.4) Evaluation beschränkt sich in diesem Feld gelegentlich auf die Messung der Teilnehmendenzufriedenheit durch Feedbackbögen. Gerade bei unsicher Beschäftigten in der politischen Bildung kann das mit Ängsten verbunden sein, künftige Aufträge zu verlieren.
Auf der anderen Seite sind bei Mitarbeitenden zu evaluierender Programme, Projekte und Einzelmaßnahmen und ihren Anstellungsträgern erfahrungsgemäß aber durchaus auch Erwartungen nach positivem Nutzen vorhanden. Oftmals sind es aus Sicht der Mitarbeitenden vorrangig zwei Hoffnungen, die dann mit Evaluation verbunden werden: Wenn sie gut gemacht wird, wird sich zeigen, wie wichtig und zielführend die Arbeit ist, die wir in unserer Einrichtung bzw. in unserer Trägerschaft leisten und wie tragfähig das ist, was jeder Mitarbeitende persönlich leistet. Und: Wir werden durch eine genauere Untersuchung unserer Arbeitsprozesse, -konzepte und -strukturen herausfinden können, wo unsere Stärken und unsere Schwächen liegen. Wir werden dann in der Lage sein, Fehlentwicklungen vorzubeugen, Stabilisierungen unserer Arbeit an den richtigen Stellen anzugehen und Optimierungen als Weiterentwicklungen vorzunehmen – und das vielleicht sogar schon während der Laufzeit der Evaluation. Die Erwartung an die Evaluation wird dann sein, möglichst konkrete, unmittelbar umsetzbare Impulse für die eigene Praxis zu geben. In dieser durchaus widersprüchlichen Ausgangslage in der Sekundär- und insbesondere Tertiärprävention, geprägt von Befürchtungen und Hoffnungen, spiegelt sich das Verhältnis der Praktiker und Praktikerinnen zu ihren Klientinnen und Klienten im Verhältnis der evaluierenden Personen zu den Praktizierenden wider: Es kommt darauf an, ob es gelingt, die Methoden der Evaluation, nicht nur auf die Evaluationsbedarfe, sondern auch entlang der Charakteristika der eigentlichen Adressatengruppierung und der daraus abgeleiteten pädagogischen Arbeitsweisen und Methoden abzustimmen. Angesichts der Gefahr, die von Radikalisierten ausgeht, kommt es also in hohem Maße darauf an, die Balance zwischen den belastbaren Methoden der Evaluationsforschung und denen des untersuchten Arbeitsprozesses herzustellen.
Nach den Bedarfen, Zwecksetzungen und darüber hinausgehenden Erwartungen tatsächlicher und potenzieller Nutzerinnen und Nutzer von Angeboten, ihren alltagsweltlichen Bezugspersonen und nach den Bedarfen und Erwartungen von Kooperationspartnern wird im Allgemeinen im Zusammenhang mit Evaluationsvorhaben eher selten gefragt. Dabei können auch sie als wichtige Beteiligte im Evaluationszusammenhang betrachtet werden. Es ist erforderlich, Bezugspersonen und Kooperationspartner nicht nur als Außenstehende zu betrachten, sondern auch die Vorteile im Blick zu haben, die sich durch bestimmte Zwecke der Evaluation und die Anlage der Untersuchung auch für sie ergeben können.
Zwischenfazit 1
Alles in allem bleibt hinsichtlich Bedarfen und Zwecken von Evaluation (nicht nur) in der Extremismusprävention zunächst festzuhalten: Evaluation im Sinne einer Auswertung und Überprüfung dessen, was inhaltlich, methodisch und strukturell an Arbeit geleistet wird, ist prinzipiell immer anzuraten, wenn produktive und auf Dauer tragfähige professionelle Leistungen erbracht werden sollen. Ihre Notwendigkeit drängt sich aber in erster Linie dort auf, wo Neuland betreten wird. Unabhängig davon, ob es sich um zivilgesellschaftliche Initiativen oder staatliche Stellen handelt, erscheint es dabei angezeigt, die Interessen der unterschiedlichen Stakeholder, etwa von Auftraggebern über Mitarbeitende bis hin zu Adressierten und ggf. ihren Bezugspersonen, aufzunehmen, die bei ihnen bestehenden Befürchtungen und Erwartungen zu berücksichtigen und diese Aspekte in ein Evaluationsdesign einfließen zu lassen, das ebenso gegenstandsangemessen wie nutzenorientiert angelegt ist.
Navigation durch den Inhalt des Kapitels / Moduls
Struktur und Informationen zum Kapitel / Modul
Fussnoten
1)
Die Bundesregierung 2016, 26.
2)
Bundesministerium für Familie, Senioren, Frauen und Jugend 2017, 50.
3)
Bundesministerium des Innern, für Bau und Heimat Bund.
4)
Ahlheim/Heger 2006, 199; vgl. Hufer 2018 und die weiteren Beiträge im Themenheft „Wirkungen politischer Bildung“ des Journals für politische Bildung 3/2018.
5)
Guba/Lincoln 1989.
6)
Vgl. Alkin/Christie 2004.
7)
Vgl. Stockmann/Meyer 2014.
8)
Fitzpatrick/Sanders/Worthen 2011.
9)
Vgl. z. B. Campbell 1969.
10)
Vgl. z. B. schon Dilthey 1910.
11)
Vgl. v. a. Hempel/Oppenheim 1948.
12)
Horgan/Braddock 2010.
13)
Edwards/Newmann 1982.
14)
Romaniuk/Fink 2012.
15)
Ebd., 17.
16)
Williams/Kleinmann 2013.
17)
W. K. Kellog Foundation 2001.
18)
Köhler 2017.
19)
Vgl. Köhler 2016.
20)
Uhlmann 2017.
21)
Vgl. Deutscher Bundestag 2018; Einhorn et al. 2012, 2013; Becker/Brunsen/Einhorn 2014.
22)
Ebd.
23)
Vgl. z. B. Glaser/Pfeiffer 2017, 15.
24)
Elverich 2011, 420; vgl. auch Heinrich 2017, 169 folgend
25)
Hufer 2017.
26)
Bröckling 2017, 75 und 86.
27)
Vgl. z. B. den Vorschlag von Köhler 2017; s. o.
28)
Vgl. z. B. Möller et al. 2017.
29)
Vgl. auch Williams/Kleinman 2013.
30)
Vgl. aktuell zusammenfassend z. B. Gansewig 2018; Walsh et al. 2018; Gruber/Lützinger 2017; Kober 2017; Kober/Armborst 2017.
31)
Vgl. vom Spiegel 2013.
32)
Vgl. Bischoff u. a. 2018.
33)
Möller/Neuscheler 2019.
34)
Vgl. Gruber/Lützinger 2017, bes. 16 ff.
35)
Ebd., 20.
36)
Ebd.; unter internationaler Perspektive liefern eine aktuelle, allerdings kaum in die Tiefe gehende Übersicht zur Anlage einschlägiger Evaluationen in englischer, niederländischer und deutscher Sprache auch Bellasio et al. 2018.
37)
Beelmann 2017, 38.
38)
Kober/Armborst 2017.
39)
Ebd., 1.
40)
Ebd., 10.
41)
Ebd., 6.
42)
Ebd., 1.
43)
Vgl. Uhlmann 2017.
44)
Vgl. Möller/Neuscheler 2018.
45)
Vgl. Schuhmacher o. J.
46)
Feddes/Gallucci 2015.
47)
Es handelt sich um Möller et al. 2015 im Bereich Rechtsextremismus- und Schuurman/Bakker 2015 im Bereich Islamismusprävention.
48)
ISO, the International Organization for Standardization.
49)
Siehe hierzu und kurz zu ihrer historischen Entwicklung, orientiert an den älteren amerikanischen „Standards for Educational Evaluation“.
50)
Beelmann/Hercher 2006.
51)
Evidenz bezieht sich im Rahmen von Evaluationsforschung – anders als oftmals im Alltagssprachgebrauch – nicht auf das selbstverständlich und offensichtlich Erscheinende, sondern hat hier die Bedeutung „Beweis“, „Nachweis“, „Beleg“. Evidenzorientierung bzw. -basierung zielt also darauf ab, Entscheidungen bestmöglich informiert und auf robuster wissenschaftlicher Grundlage treffen zu können.
52)
Vgl. Ullrich et al. 2018.
53)
Vgl. auch Bellmann/Müller 2011, bes. 24 ff.; Herzog 2011.
54)
Vgl. Steinke 2013.
55)
Vgl. auch ausführlicher Patton 2003.
56)
Vgl. auch Pawson/Tilley 1997.
57)
Vgl. Lewin et al. 2018.
58)
Vgl. zu diesen Begriffen Beywl/Niestroj 2009, insb. 106 ff.
59)
Vgl. 2006.
60)
Ebd., 41.
61)
Ebd., 42; ähnliche Schlussfolgerungen bei Bischoff u. a. 2018.
62)
Vgl. Stockmann 2006.
63)
Vgl. z. B. Beywl 2006.
64)
Vgl. z. B. Klingelhöfer 2007; Haubrich 2009; Lüders 2010; Armborst u. a. 2018; Yngborn/Hoops 2018; Möller/Neuscheler 2016, 2017, 2018.
65)
Vgl. Mannheim 1980; Bohnsack 2011.
66)
Univation, Institut für Evaluation.
67)
Vgl. grundlegend Chen 2004.
68)
Vgl. näher dazu auch Haubrich 2009.
69)
Vgl. Haubrich 2009.
70)
Vgl. Pawson/Tilley 1997, 2004.
71)
Vgl. Möller 2012; ders. et al. 2017.
72)
Vgl. Howaldt/Schwarz 2010.
73)
Vgl. 2012.
74)
Vgl. Gibbons et al. 1994; Bender 2001; Novotny et al. 2001.
75)
Vgl. auch Dewe 2005.
76)
Luhmann 2005, 379 ff.
77)
Dewe et al. 1992, 79.
78)
Ebd.
79)
Baier 2018, 72.
80)
Bischoff 2018, 153.
Literatur
Ahlheim, Klaus/Heger, Bardo (2006): Wirklichkeit und Wirkung politischer Erwachsenenbildung. Eine empirische Untersuchung in Nordrhein-Westfalen. Schwalbach/Ts., Wochenschau.
Alkin, Marvin C./Christie, Christina A. (2004): An Evaluation Theory Tree. In: Alkin, M. C. (Ed.): Evaluation Roots. Tracing Theorists Views and Infuences. Thousands Oaks, Sage, Seiten 12-66.
Armborst, Andreas/Biene, Janusz/Coester, Marc/Milbradt, Björn/Nehlsen, Inga (2018): Evaluation in der Radikalisierungsprävention: Ansätze und Kontroversen. PRIF Report 11/2018. Report-Reihe Gesellschaft extrem. Frankfurt, Leibniz Institut Hessische Stiftung Friedens- und Konfiktforschung. https://www.hsfk.de/publikationen/publikationssuche/publikation/evaluation-in-der-radikalisierungspraevention-ansaetze-und-kontroversen/.
Baier, Dirk (2018): Gutachten für den 23. Deutschen Präventionstag am 11. & 12. Juni 2018 in Dresden. In: in: Kerner, Hans-Jürgen & Marks, Erich (Hrsg.): Internetdokumentation des Deutschen Präventionstages. Hannover 2017. www.praeventionstag.de/dokumentation.cms/4094.
Becker, Carsten/Brunsen, Hendrik/Einhorn, Annika (2014): Evaluation des XENOS-Sonderprogramms „Ausstieg zum Einstieg“. Abschlussbericht mit einer zusammenfassenden Betrachtung des Förderzeitraums 2010-2013 im Auftrag des Bundesministeriums für Arbeit und Soziales (BMAS). Berlin, GIB.
Beelmann, Andreas/Hercher, Judith (2016): Methodische Beurteilung von Evaluationsstudien im Bereich der Gewalt- & Kriminalitätsprävention: Beschreibung und Begründung eines Methodenprofils. In: Stiftung Deutsches Forum für Kriminalprävention (Hrsg.): Entwicklungsförderung & Gewaltprävention 2015/2016 – Aktuelle Beiträge aus Wissenschaft und Praxis, Seiten 97-116.
Bellasio, Jacopo/Hofman, Joanna, Ward, Antonia/Nederveen, Fook/Knack, Anna/Arya Sofa Meranto/Hoorens, Stijn (2018): Counterterrorism evaluation. Taking stock and looking ahead. RAND Europe. Online: https://www.rand.org/content/dam/rand/pubs/research_reports/RR2600/RR2628/RAND_R2628.pdf.
Bellmann, Johannes/Müller, Thomas (2011): Evidenzbasierte Pädagogik – ein Déjà-vu? In: Dies. (Hrsg.): Wissen, was wirkt. Kritik evidenzbasierter Pädagogik. Wiesbaden, VS, Seiten 9-32.
Beywl, Wolfgang (2006): Demokratie braucht wirkungsorientierte Evaluation - Entwicklungspfade im Kontext der Kinder- und Jugendhilfe. In: Deutsches Jugendinstitut (Hrsg.): Wirkungsevaluation in der Kinder- und Jugendhilfe - Einblicke in die Evaluationspraxis. München, DJI, Seiten 25-46.
Beywl, Wolfgang/Niestroj, Melanie: Das A-B-C der wirkungsorientierten Evaluation. Glossar – Deutsch / Englisch – der wirkungsorientierten Evaluation. 2., vollständig bearbeitete und ergänzte Auflage. Köln, Univation Institut für Evaluation.
Bischoff, Ursula/König, Frank/Zimmermann, Eva (2018): Pädagogik wirkt?! Wirkungsevaluationen in der pädagogischen Präventionsarbeit. In: Glaser, Michaela, Frank, Anja & Herding, Maruta (Hrsg): Gewaltorientierter Islamismus im Jugendalter. Perspektiven aus Jugendforschung und Jugendhilfe. Weinheim und Basel, Beltz Juventa, Seiten 147-157.
Bundesministerium des Innern, für Bau und Heimat Bund, https://www.bmi.bund.de/SharedDocs/downloads/DE/veroeffentlichungen/themen/sicherheit/praeventionsprogramm-islamismus.pdf?__blob=publicationFile&v=2.
Bohnsack, Ralf (2011): Hauptbegriffe qualitativer Sozialforschung. Opladen, Budrich (3. durchgesehene Auflage).
Bröckling, Ulrich (2017): Gute Hirten führen sanft. Über Menschenregierungskünste. Berlin, Suhrkamp.
Bundesministerium für Familien, Senioren, Frauen und Jugend (BMFSFJ) (2017): Bericht der Bundesregierung über Arbeit und Wirksamkeit der Bundesprogramme zur Extremismusprävention. Berlin, BMFSJ.
Campbell, Donald T. (1969): Reforms as Experiments. In: American Psychologist. 24, 4, Seiten 409-429.
Chen, Huey-Tseh (2004): The roots of theory-driven evaluation: current views and origins. In: Alkin, Marvin C. (Ed.): Evaluation Roots. Tracing theorists’ views and infuences. Thousand Oaks, Sage, Seiten 132-152.
DeGEval, https://www.degeval.org/fleadmin/Publikationen/DeGEval_Standards_fuer_Evaluation_-_Erste_Revision__2016_.pdf.
Deutscher Bundestag (2018): Drucksache 19/1134.
Deutscher Präventionstag (2018): Dresdner Erklärung des 23. Deutschen Präventionstages (vom 07.06.2018). Online-Bezug über: http://www.praeventionstag.de/nano.cms/news/details/2951, 23.06.2018.
Die Bundesregierung (2016): Strategie der Bundesregierung zur Extremismusprävention und Demokratieförderung. Berlin, Bundesministerium für Familie, Senioren, Frauen und Jugend/Bundesministerium des Innern, für Bau und Heimat.
Dilthey, Wilhelm (1981): Der Aufbau der geschichtlichen Welt in den Geisteswissenschaften. Frankfurt a. M., Suhrkamp (Orig. 1910).
Edwards Ward/Newman Robert J. (1982): Multiattribute Evaluation. Beverly Hills, Sage.
Einhorn, Annika/Goldkamp, Sina/Grebe, Tim/Kroos, Daniela/Popp, Sandra (2012): Evaluation des „XENOS-Sonderprogramms Ausstieg zum Einstieg. Kurzbericht. Berlin, GIB.
Einhorn, Annika/Lietzmann, Anja/Meyer, Stefan (2013): Evaluation des XENOS- Sonderprogramms „Ausstieg zum Einstieg“. 2. Zwischenbericht. Ergebnisse der 2. Online-Befragung & Präsentation von Good-Practice-Ansätzen. Berlin, GIB.
Elverich, Gabi (2011): Demokratische Schulentwicklung. Potenziale und Grenzen einer Handlungsstrategie gegen Rechtsextremismus. Wiesbaden, VS Springer.
Feddes, Allard R./Gallucci, Marcello (2015): A Literature Review on Methodology used in Evaluating Effects of Preventive and Deradicalisation Interventions. In: JD Journal for Deradicalization, Winter 2015/16 (5), Seiten 1-27. (PDF) online unter: http://journals.sfu.ca/jd/index.php/jd/article/view/33 (30.04.2018).
Fitzpatrick, Jody L./Sanders, James R./Worthen, Blaine R. (2010): Program Evaluation. Alternative Approaches und Practical Guidelines. 4th ed., Upper Saddle River, NJ, Pearson.
Gansewig, Antje (2018): Prävention von politischen Extremismus in Deutschland. Eine Betrachtung zur Bedarfs- und Angebotslage. In: Walsh, Maria, Pniewski, Benjamin, Kober, Marcus & Armborst, Andreas (Hrsg.): Evidenzorientierte Kriminalprävention. Ein Leitfaden für Politik und Praxis. Wiesbaden, VS Springer, Seiten 465-488.
Glaser, Stefan/Pfeiffer, Thomas: Erlebniswelt Rechtsextremismus. modern – subversiv – hasserfüllt, 5. Auflage Schwalbach/Ts., Wochenschau.
Gruber, Florian/Lützinger, Saskia (2017): Extremismusprävention in Deutschland – Erhebung und Darstellung der Präventionslandschaft. Modulabschlussbericht. Wiesbaden, BKA.
Guba, Egon G./Lincoln, Yvonna S. (1989): Fourth Generation Evaluation. Newbury Park, CA, Page.
Haubrich, Karin (2009): Sozialpolitische Innovation ermöglichen. Die Entwicklung der rekonstruktiven Programmtheorie-Evaluation am Beispiel der Modellförderung in der Kinder- und Jugendhilfe. Münster/New York/München/Berlin, Waxmann Internationale Hochschulschriften.
Hempel, Carl G./Oppenheim, Paul (1948): Studies of the Logic of Explanation. In: Philosophy of Science, 15, 2, Seiten 135-175.
Heinrich, Gudrun (2017): Unterstützung von außen und langer Atem. Strategien gegen Rechtsextremismus im Sozialraum Schule, in: Glaser, Stefan & Pfeiffer, Thomas: Erlebniswelt Rechtsextremismus. modern – subversiv – hasserfüllt, 5. Auf. Schwalbach/Ts., Wochenschau, Seiten 165-175.
Herzog, Werner (2011): Eingeklammerte Praxis – ausgeklammerte Profession. Eine Kritik der evidenzbasierten Pädagogik. In: Bellmann, Johannes & Müller, Thomas (Hrsg.): Wissen, was wirkt. Kritik evidenzbasierter Pädagogik. Wiesbaden, VS, Seiten 123-145.
Horgan, John/Braddock, Kurt (2010): Rehabilitating the Terrorists?: Challenges in Assessing the Effectiveness of Deradicalization Programs. In: Terrorism and Political Violence, 22, Seiten 267-291. doi: 10.1080/09546551003594748.
Hufer, Klaus-Peter (2017): Argumente gegen Parolen und Populismus. Aktualisierter Sonderdruck aus „Argumente am Stammtisch“. Schwalbach/Ts., Wochenschau.
Hufer, Klaus-Peter: Wirkungslose Wirkungsforschung? Rückblick und Ausblick. In: Journal für politische Bildung, 3/2018, Seiten 10-14.
Innenministerkonferenz, https://www.innenministerkonferenz.de/IMK/DE/termine/to-beschluesse/2016-11-29_30/nummer%204%20zu%20anlage%201_evaluationsbericht_apr_nrw.pdf?__blob=publicationFile&v=2. Joint Committee on Standards for Educational Evaluation (1994): The program evaluation standards. How to assess evaluations of educational programs (2. ed.). Thousand Oaks, CA, Sage.
Joint Committee on Standards for Educational Evaluation (Hrsg.) (2000): Handbuch der Evaluationsstandards. Die Standards des “Joint Committee on Standards for Educational Evaluation” (2. Auflage). Opladen, Springer VS.
Joint Committee on Standards for Educational Evaluation & Sanders, J. R. (2006): Handbuch der Evaluationsstandards. Die Standards des “Joint Committee on Standards for Educational Evaluation” (3. erweiterte und aktualisierte Auflage). Übersetzt und für die dt. Ausgabe erweitert von Wolfgang Beywl und Thomas Widmer. Wiesbaden, Springer VS.
Klingelhöfer, Susanne (2007): Das Programm „Entimon“: Spezifika, Potenziale und Herausforderungen einer induktiv-rekonstruierenden Evaluation anhand Logischer Modelle. In: Glaser, Michaela/Schuster, Silke (Hrsg.): Evaluation präventiver Praxis gegen Rechtsextremismus. Halle, Deutsches Jugendinstitut, Seiten 32-52.
Kober, Marcus (2017): Zur Evaluation von Maßnahmen der Prävention von religiöser Radikalisierung in Deutschland. In: Journal for Deradicalization, 11.
Kober, Marcus/Armborst, Andreas (2017): Forschungssynthese: Evaluation von Ansätzen und Maßnahmen zur Prävention Islamistischer Radikalisierung. Bericht zur Veröffentlichung im Portal für wissens- und evidenzbasierte Sicherheit und Prävention (WESPE). Verfügbar unter: https:// www.nzkrim.de/fileadmin/user_upload/Praevention_Extremismus_Islamismus_20170521.pdf, 23.06.2018.
Köhler, Daniel (2016): Strukturelle Qualitätsstandards in der Interventions- und Präventionsarbeit gegen gewaltbereiten Extremismus: ein Handbuch für Praktikerinnen, Praktiker und staatliche Koordinationsstellen sowie zivilgesellschaftliche Projektträger in Deutschland. Stuttgart, Ministerium für Inneres, Digitalisierung und Migration.
Köhler, Daniel (2017): Preventing violent radicalization. Programme Design and Evaluation. Collection Monografas, Seiten 91-98; online: www.cidob.org/en/articulos/monografas/resilient_cities/preventing_violent_radicalisation_programme_design_and_evaluation, 27.06.2018.
Lewin Simon/Booth Andrew/Glenton Claire/Munthe-Kaas Heather/Rashidian Arash/Wainwright Megan/Bohren Meghan A./Tunçalp Özge/Colvin Christopher J./Garside Ruth/Carlsen Benedicte/Langlois Etienne V./Noyes Jane (2018): Implement Sci. 2018 Jan 25;13 (Suppl 1):2. doi: 10.1186/s13012-017-0688-3., 20.07.2018.
Lüders, Christian (2010): Neue Wege der Evaluation gewalt- und kriminalpräventiver Maßnahmen und Projekte. Das Logische Modell als Instrument der Evaluation in der Kinder- und Jugendkriminalitätsprävention. In: Berliner Forum Gewaltprävention Nr. 41: Evaluation und Qualitätsentwicklung in der Gewalt- und Kriminalitätsprävention. Dokumentation des 10. Berliner Präventionstages, Seiten 127-139.
Mannheim, Karl (1980): Strukturen des Denkens. Frankfurt a. M., Suhrkamp.
Möller, Kurt (2012): Der Dritte Raum. Möglichkeiten zu gestaltungsorientierter Grundlagenforschung in Wissenschaft-Praxis-Kooperation. In: Unzicker, Kai/Hessler, Gudrun (Hrsg.): Öffentliche Sozialforschung und Verantwortung für die Praxis. Zum Verhältnis von Sozialforschung, Praxis und Öffentlichkeit. Wiesbaden, Springer VS, Seiten 85-108.
Möller, Kurt/Küpper, Beate/Buchheit, Frank/Neuscheler, Florian (2015): Evaluation des Aussteigerprogramms für Rechtsextremisten des Landes Nordrhein-Westfalen (APR NRW). Abschlussbericht. Esslingen. www.innenministerkonferenz.de/IMK/DE/termine/to-beschluesse/2016-11-29_30/nummer%204%20zu%20anlage%201_evaluationsbericht_apr_nrw.pdf?__blob=publicationFile&v=2.
Möller, Kurt/Lempp, Marion/Nolde, Kai/Schuhmacher, Nils (2017): Abschlussbericht zum Projekt ‚Rückgrat!‘ – Eine Wissenschaft-Praxis-Kooperation gegen Rechtsextremismus und gruppierungsbezogene Ablehnungen. Sachbericht an die Robert-Bosch-Stiftung und die Bundeszentrale für politische Bildung. Esslingen, Hochschule Esslingen (unv. Mscr.).
Möller, Kurt/Neuscheler, Florian (2016): Bericht zur Evaluation von Konzeption und Struktur des Modellprojekts EXTRA – Ausstiegshilfe aus dem Rechtsextremismus – des Landes Sachsen-Anhalt. Esslingen (unv. Mscr.).
Möller, Kurt/Neuscheler, Florian (2017): Bericht zur Prozess- und Ergebnisevaluation der Ausstiegshilfe aus dem Rechtsextremismus EXTRA (EXTRemismus Ausstieg) des Landes Sachsen-Anhalt. Esslingen (unv. Mscr.).
Möller, Kurt/Neuscheler, Florian (2018): Abschlussbericht zur Evaluation der Beratungsstelle Hessen – Religiöse Toleranz statt Extremismus. Esslingen (unv. Mscr.).
Möller, Kurt/Neuscheler, Florian (2019): Islamismus und Rechtsextremismus -Was wissen wir über Radikalisierungsprozesse, was kann dagegen unternommen werden? In: Zeitschrift für Jugendkriminalrecht und Jugendhilfe – ZJJ, H. 1, Seiten 12-19.
Nationales Zentrum für Kriminalprävention, ttps://www.nzkrim.de/typo3conf/ext/nzk/Resources/Public/pdf/evidence_index.pdf.
Patton, Michael Quinn (2003): Qualitative Evaluation Checklist. https://wmich.edu/sites/default/fles/attachments/u350/2014/qualitativeevalchecklist.pdf.
Pawson, Ray/Tilley, Nick (1997): Realistic Evaluation. London, Sage.
Pawson, Ray/Tilley, Nick (1997): Realist Evaluation. British Cabinet Office. http://www.communitymatters.com.au/RE_chapter.pdf.
Romaniuk, Peter/Fink, Naureen C. (2012): From Input to Impact. Evaluating Terrorism Prevention Programs. Center on Global Counterterrorism Cooperation. Online: http://globalcenter.org/wp-content/uploads/2012/10/CGCC_EvaluatingTerrorismPrevention.pdf.
Schuhmacher, Nils (o.J.; 2018): Evaluation der Fach- und Beratungsstelle für religiös begründete Radikalisierung – Legato. Abschlussbericht. Hamburg. Online: www.wiso.uni-hamburg.de/fachbereich-sowi/professuren/hentschel/forschung/legato.html, 02.04.2019.
Schuurman, Bart/Bakker, Edwin (2015) Reintegrating jihadist extremists: evaluating a Dutch initiative, 2013–2014. In: Behavioral Sciences of Terrorism and Political Aggression, 8, 1, Seiten 66-85. doi: 10.1080/19434472.2015.1100648.
Spiegel, Hiltrud v. (2013): Methodisches Handeln in der Sozialen Arbeit. München, Reinhardt UTB (5.Auflage).
Steinke, Ines (2013): Gütekriterien qualitativer Forschung. In: Flick, Uwe, Kardorff, Ernst von & Steinke, Ines (Hrsg.): Qualitative Forschung. Ein Handbuch. 10. Auf. Reinbek bei Hamburg, Rowohlt Taschenbuch Verlag, Seiten 319-331.
Stockmann, Reinhard/Meyer, Wolfgang (2014): Evaluation. Eine Einführung. Zweite überarbeitete und aktualisierte Auflage. Opladen, Budrich (UTB).
Stockmann, Reinhard (2006): Evaluation und Qualitätsentwicklung. Eine Grundlage für wirkungsorientiertes Qualitätsmanagement. Münster/New York/München/Berlin, Waxmann.
Uhlmann, Milena (2017): Evaluation der Beratungsstelle „Radikalisierung“. Abschlussbericht. Nürnberg: Bundesamt für Migration und Flüchtlinge. Forschungsbericht 31.
Ullrich, Simone/Moussa Nabo, Mitra/Nehlsen, Inga/de la Chaux, Marlen (2018): Entwicklung von Evaluationskriterien in der Extremismusprävention. In: forum kriminalprävention, 2, Seiten 19-22.
Walsh, Maria/Pniewski, Benjamin/Kober, Marcus/Armborst, Andreas (Hrsg.): Evidenzorientierte Kriminalprävention. Ein Leitfaden für Politik und Praxis. Wiesbaden, VS Springer.
W.K. Kellogg Foundation (2001): Logic model development guide. Using logic models to bring together planning, evaluation, and action. Michigan, WKKF.
Williams Michael J./Kleinman, Steven M. (2013): A utilization-focused guide for conducting terrorism risk reduction program evaluations. In: Behavioral Sciences of Terrorism and Political Aggression, http://dx.doi.org/10.1080/19434472.2013.860183.
Yarbrough, Donald B. (2011): The program evaluation standards. A guide for evaluators and evaluation users (3. ed.). Thousand Oaks, CA, Sage.
Yngborn, Annalena/Hoops, Sabrina (2018): Das Logische Modell als Instrument der Evaluation in der Kriminalitätsprävention im Kindes- und Jugendalter. In: Walsh, Maria Pniewski, Benjamin, Kober, Marcus & Armborst, Andreas (Hrsg.): Evidenzorientierte Kriminalprävention in Deutschland: Ein Leitfaden für Politik und Praxis. Wiesbaden, VS Springer, Seiten 349-368.
Quellen
ISO: www.iso.org/standards.html.
Präventionstag: Quelle: http://www.praeventionstag.de/nano.cms/news/details/2951.
Präventionstag: Quelle: http://www.praeventionstag.de/nano.cms/news/details/2951www.praeventionstag.de/dokumentation.cms/4094
Univation, Institut für Evaluation: www.univation.org/programmbaum