EvidenceEngine – Literaturrecherche, aber bitte EU-only (und ohne Tracking-Zirkus)
Recherche · Multi-Source · AI (optional) · Privacy-first
EvidenceEngine ist entstanden, weil ich irgendwann gemerkt habe:
Literaturrecherche fühlt sich oft an wie ein Escape-Room – nur dass die Rätsel „Welche Datenbank?“,
„Warum fehlen genau die relevanten Paper?“ und „Wieso ist das Ranking so… esoterisch?“ heißen.
One-liner (für Menschen mit wenig Zeit):
EvidenceEngine durchsucht mehrere wissenschaftliche Quellen parallel, filtert peer-review-bewusst,
und kann Ergebnisse (optional) lokal per LLM zusammenfassen – ohne Accounts, ohne Marketing-Cookies, ohne Daten-Zirkus.
Zur Website → evidenceengine.eu
Made in Europe
Hosted in Europe
Kein Login
Kein Tracking
Warum EvidenceEngine?
Hintergrund
Wer schon mal versucht hat, ein Thema sauber zu überblicken, kennt das:
Du suchst in einer Datenbank, findest 40 Treffer – und spürst trotzdem, dass irgendwo
in einem Paralleluniversum noch 200 relevante Publikationen liegen.
EvidenceEngine ist mein Versuch, dieses Paralleluniversum ein bisschen näher an die Oberfläche zu holen.
Philosophie: lieber transparent und nachvollziehbar als „magisch“.
Du sollst sehen können, warum etwas oben landet – nicht nur, dass es oben landet.
Multi-Source: mehr als nur PubMed
Features
EvidenceEngine kann mehrere Quellen parallel abfragen – darunter OpenAlex,
PubMed, Europe PMC, DOAJ (Open Access) und arXiv (Preprints).
Das bedeutet: weniger „Oh, das Paper ist nur dort gelistet“ und mehr „Okay, ich sehe das Feld“.
Nerd-Detail, das praktisch ist:
DOAJ liefert nur dann Ergebnisse, wenn „Open Access only“ aktiv ist. Das ist kein Bug – das ist Logik mit Ansage.
OpenAlex
PubMed
Europe PMC
DOAJ
arXiv
Filter, die nicht nur so tun als wären sie Filter
Workflow
Du kannst u.a. nach Jahr filtern, die Seitengröße einstellen,
pro Quelle limitieren, „only with abstract“ aktivieren und bei Bedarf
auf „open access only“ gehen.
Klingt banal – ist aber genau die Art von banal, die dir 30 Minuten Lebenszeit pro Suche zurückgibt.
Pro-Tipp (Keyboard-Nerds):
Enter startet die Suche · Shift+Enter öffnet den ersten Treffer
Year from/to
Abstract
Open Access
Per Source
AI – optional, erklärbar und nicht beleidigt, wenn du sie ausschaltest
AI
EvidenceEngine hat einen Schalter für Semantic Ranking.
Wenn er aus ist, bekommst du „raw-only“ (also ohne Re-Ranking).
Wenn er an ist, wird das Ranking semantisch nach Relevanz sortiert –
aber so, dass du es als Werkzeug nutzen kannst und nicht als Orakel.
Realitätscheck: Für manche Suchen ist „raw-only“ genau das Richtige,
weil du lieber breit streuen willst. Für andere willst du schneller zur Sache kommen.
Der Punkt ist: Du entscheidest.
Semantic Ranking
raw-only
Explainable
LLM-Zusammenfassungen: lokal auf EU-Servern (kein Cloud-Detour)
Privacy
Wenn das Backend dafür aktiv ist, kannst du dir Paper zusammenfassen lassen.
Wichtig dabei: Das läuft mit einem lokal betriebenen Modell (TinyLlama) auf EU-basierten Servern,
ohne dass deine Eingaben an externe Dienste weitergereicht werden.
Und: Es gibt keine User-Accounts, kein Tracking, keine Marketing-Cookies.
Warum ich das so streng halte:
Recherche ist Denken in freier Wildbahn. Und Gedanken brauchen keine Werbe-ID.
TinyLlama lokal
GDPR-orientiert
No Accounts
No Tracking
Was EvidenceEngine (noch) nicht ist
Ehrlichkeit
EvidenceEngine ist keine „Ich klicke einmal und habe die Wahrheit“-Maschine.
Es ist ein Recherche-Tool: Es bringt dir Quellen zusammen, macht Vorfilterung leichter,
und unterstützt dich beim Überblick. Die Interpretation bleibt (leider) immer noch dein Gehirn.
Aber immerhin muss dein Gehirn dann weniger mit Copy-Paste kämpfen.
Und ja: Wenn das System mal kurz nicht erreichbar ist, liegt das nicht an „Quantum-Störungen“,
sondern meist an normaler Technik – also Wartung, Limits oder schlicht: zu viele gleichzeitige Anfragen.
Roadmap: mehr Quellen, smartere LLM, mehr gleichzeitige Nutzer
In Planung
Ich will EvidenceEngine weiter ausbauen – ohne den Kern zu verlieren (Privacy-first, EU-only, transparent).
Konkret stehen drei Dinge auf der Liste:
1) Weitere Bibliotheken/Quellen
Mehr Indexe, mehr Metadaten, bessere Abdeckung – solange es sauber lizenzierbar und sinnvoll integrierbar ist.
Ziel: weniger „wo muss ich noch suchen?“ und mehr „ich sehe das Feld“.
2) LLM: fähiger, aber weiterhin lokal
Ich möchte die Zusammenfassungen robuster machen (z.B. bessere Struktur, klarere Kernaussagen,
weniger Halluzinations-Risiko) – und dabei möglichst bei lokalem EU-Processing bleiben.
3) Skalierung: mehr gleichzeitige Nutzer
Aktuell ist der Server eher „kleiner, tapferer Forschungshamster“ als „Cluster im Rechenzentrum“.
Ich plane Optimierungen wie Caching, effizientere Requests, Rate-Limits mit Augenmaß
und perspektivisch mehr Ressourcen, damit deutlich mehr Menschen gleichzeitig suchen können.
Bonus: Performance ohne Drama
Ziel ist nicht „schnell um jeden Preis“, sondern „schnell und stabil“ –
also ein System, das auch bei Last nicht in einen existenziellen Monolog verfällt.
Roadmap
Mehr Sources
Besseres Summarizing
Scaling
Feedback willkommen
Was wäre für dich am wichtigsten: mehr Quellen, bessere Filter, stabilere Summaries oder mehr Geschwindigkeit?
Schreib mir gern über die Kontaktadresse im
Impressum.
Hinweis: EvidenceEngine ist ein nicht-kommerzielles, akademisches Projekt und ersetzt keine systematische Review-Methodik.
Es macht die Recherche leichter – denken musst du (leider) weiterhin selbst.