EvidenceEngine – Literaturrecherche, aber bitte EU-only (und ohne Tracking-Zirkus)

Recherche · Multi-Source · AI (optional) · Privacy-first

EvidenceEngine ist entstanden, weil ich irgendwann gemerkt habe: Literaturrecherche fühlt sich oft an wie ein Escape-Room – nur dass die Rätsel „Welche Datenbank?“, „Warum fehlen genau die relevanten Paper?“ und „Wieso ist das Ranking so… esoterisch?“ heißen.

One-liner (für Menschen mit wenig Zeit):
EvidenceEngine durchsucht mehrere wissenschaftliche Quellen parallel, filtert peer-review-bewusst, und kann Ergebnisse (optional) lokal per LLM zusammenfassen – ohne Accounts, ohne Marketing-Cookies, ohne Daten-Zirkus.
Zur Website → evidenceengine.eu
Made in Europe Hosted in Europe Kein Login Kein Tracking

Warum EvidenceEngine?

Wer schon mal versucht hat, ein Thema sauber zu überblicken, kennt das: Du suchst in einer Datenbank, findest 40 Treffer – und spürst trotzdem, dass irgendwo in einem Paralleluniversum noch 200 relevante Publikationen liegen. EvidenceEngine ist mein Versuch, dieses Paralleluniversum ein bisschen näher an die Oberfläche zu holen.

Philosophie: lieber transparent und nachvollziehbar als „magisch“. Du sollst sehen können, warum etwas oben landet – nicht nur, dass es oben landet.

Multi-Source: mehr als nur PubMed

EvidenceEngine kann mehrere Quellen parallel abfragen – darunter OpenAlex, PubMed, Europe PMC, DOAJ (Open Access) und arXiv (Preprints). Das bedeutet: weniger „Oh, das Paper ist nur dort gelistet“ und mehr „Okay, ich sehe das Feld“.

Nerd-Detail, das praktisch ist:
DOAJ liefert nur dann Ergebnisse, wenn „Open Access only“ aktiv ist. Das ist kein Bug – das ist Logik mit Ansage.
OpenAlex PubMed Europe PMC DOAJ arXiv

Filter, die nicht nur so tun als wären sie Filter

Du kannst u.a. nach Jahr filtern, die Seitengröße einstellen, pro Quelle limitieren, „only with abstract“ aktivieren und bei Bedarf auf „open access only“ gehen. Klingt banal – ist aber genau die Art von banal, die dir 30 Minuten Lebenszeit pro Suche zurückgibt.

Pro-Tipp (Keyboard-Nerds):
Enter startet die Suche · Shift+Enter öffnet den ersten Treffer
Year from/to Abstract Open Access Per Source

AI – optional, erklärbar und nicht beleidigt, wenn du sie ausschaltest

EvidenceEngine hat einen Schalter für Semantic Ranking. Wenn er aus ist, bekommst du „raw-only“ (also ohne Re-Ranking). Wenn er an ist, wird das Ranking semantisch nach Relevanz sortiert – aber so, dass du es als Werkzeug nutzen kannst und nicht als Orakel.

Realitätscheck: Für manche Suchen ist „raw-only“ genau das Richtige, weil du lieber breit streuen willst. Für andere willst du schneller zur Sache kommen. Der Punkt ist: Du entscheidest.
Semantic Ranking raw-only Explainable

LLM-Zusammenfassungen: lokal auf EU-Servern (kein Cloud-Detour)

Wenn das Backend dafür aktiv ist, kannst du dir Paper zusammenfassen lassen. Wichtig dabei: Das läuft mit einem lokal betriebenen Modell (TinyLlama) auf EU-basierten Servern, ohne dass deine Eingaben an externe Dienste weitergereicht werden. Und: Es gibt keine User-Accounts, kein Tracking, keine Marketing-Cookies.

Warum ich das so streng halte:
Recherche ist Denken in freier Wildbahn. Und Gedanken brauchen keine Werbe-ID.
TinyLlama lokal GDPR-orientiert No Accounts No Tracking

Was EvidenceEngine (noch) nicht ist

EvidenceEngine ist keine „Ich klicke einmal und habe die Wahrheit“-Maschine. Es ist ein Recherche-Tool: Es bringt dir Quellen zusammen, macht Vorfilterung leichter, und unterstützt dich beim Überblick. Die Interpretation bleibt (leider) immer noch dein Gehirn. Aber immerhin muss dein Gehirn dann weniger mit Copy-Paste kämpfen.

Und ja: Wenn das System mal kurz nicht erreichbar ist, liegt das nicht an „Quantum-Störungen“, sondern meist an normaler Technik – also Wartung, Limits oder schlicht: zu viele gleichzeitige Anfragen.

Roadmap: mehr Quellen, smartere LLM, mehr gleichzeitige Nutzer

Ich will EvidenceEngine weiter ausbauen – ohne den Kern zu verlieren (Privacy-first, EU-only, transparent). Konkret stehen drei Dinge auf der Liste:

1) Weitere Bibliotheken/Quellen

Mehr Indexe, mehr Metadaten, bessere Abdeckung – solange es sauber lizenzierbar und sinnvoll integrierbar ist. Ziel: weniger „wo muss ich noch suchen?“ und mehr „ich sehe das Feld“.

2) LLM: fähiger, aber weiterhin lokal

Ich möchte die Zusammenfassungen robuster machen (z.B. bessere Struktur, klarere Kernaussagen, weniger Halluzinations-Risiko) – und dabei möglichst bei lokalem EU-Processing bleiben.

3) Skalierung: mehr gleichzeitige Nutzer

Aktuell ist der Server eher „kleiner, tapferer Forschungshamster“ als „Cluster im Rechenzentrum“. Ich plane Optimierungen wie Caching, effizientere Requests, Rate-Limits mit Augenmaß und perspektivisch mehr Ressourcen, damit deutlich mehr Menschen gleichzeitig suchen können.

Bonus: Performance ohne Drama

Ziel ist nicht „schnell um jeden Preis“, sondern „schnell und stabil“ – also ein System, das auch bei Last nicht in einen existenziellen Monolog verfällt.

Roadmap Mehr Sources Besseres Summarizing Scaling
Feedback willkommen
Was wäre für dich am wichtigsten: mehr Quellen, bessere Filter, stabilere Summaries oder mehr Geschwindigkeit? Schreib mir gern über die Kontaktadresse im Impressum.

Hinweis: EvidenceEngine ist ein nicht-kommerzielles, akademisches Projekt und ersetzt keine systematische Review-Methodik. Es macht die Recherche leichter – denken musst du (leider) weiterhin selbst.