Wer wir sind und was uns antreibt
valenquyra ist seit mehreren Jahren ein Forschungs- und Entwicklungsteam, das sich ausschließlich auf Large Language Models konzentriert. Wir arbeiten an der Schnittstelle zwischen linguistischer Forschung und maschinellem Lernen.
Unsere Arbeit begann 2023 mit kleineren Projekten zur Textverarbeitung. Seitdem haben wir uns auf die Entwicklung und Anpassung von Sprachmodellen spezialisiert, die tatsächlich verstehen, was sie verarbeiten – nicht nur Muster wiederholen.
Was uns unterscheidet? Wir behandeln Sprache als komplexes System, nicht als Datensatz. Das bedeutet längere Entwicklungszyklen, aber bessere Ergebnisse.

Unsere Ausrichtung
Forschungsfokus
Wir entwickeln Sprachmodelle, die kontextbewusst arbeiten. Das heißt konkret: Modelle, die mehrdeutige Aussagen richtig interpretieren, kulturelle Nuancen erkennen und bei Unsicherheit transparent bleiben.
Unser Team arbeitet an Methoden, die über Standard-Transformer-Architekturen hinausgehen. Wir experimentieren mit hybriden Ansätzen, die symbolische Verarbeitung mit neuronalen Netzen kombinieren.
Die meisten Projekte dauern zwischen sechs Monaten und zwei Jahren. Schnelle Ergebnisse sind nicht unser Ziel – nachhaltige Verbesserungen schon.
Langfristige Perspektive
Bis 2027 wollen wir Sprachmodelle entwickelt haben, die mehrsprachige Kontexte ohne Qualitätsverlust verarbeiten können. Aktuell verlieren die meisten Systeme bei Sprachwechseln an Präzision.
Uns interessiert besonders die Verarbeitung von Fachsprachen – medizinische Texte, juristische Dokumente, technische Spezifikationen. Dort versagen generische Modelle oft.
Wir arbeiten auch an Modellen, die erklären können, wie sie zu ihren Antworten kommen. Transparenz ist für uns kein Zusatzfeature.
Das Team hinter den Modellen
Unser Kernteam besteht aus zwölf Personen mit unterschiedlichen Hintergründen. Linguisten arbeiten direkt mit Machine-Learning-Ingenieuren zusammen – das ist bei uns keine Metapher, sondern tägliche Praxis.
Wir haben bewusst keine klassische Hierarchie. Entscheidungen werden in Forschungsgruppen getroffen, die sich je nach Projekt neu formieren. Das dauert manchmal länger, führt aber zu durchdachteren Lösungen.

Lenja Bergström
Leitende Forscherin für Sprachmodelle
Lenja koordiniert unsere Forschungsarbeit seit Anfang 2024. Sie kam von einem universitären Hintergrund in computationaler Linguistik und brachte einen pragmatischen Ansatz mit: Modelle müssen funktionieren, nicht nur theoretisch elegant sein.
Sie leitet aktuell ein Projekt zur Verbesserung von Kontextfenstern in Transformer-Modellen. Das klingt technisch, hat aber praktische Auswirkungen: Längere Dokumente können besser verarbeitet werden, ohne dass wichtige Informationen verloren gehen.
Außerhalb der Arbeit beschäftigt sie sich mit historischer Sprachentwicklung – ein Interesse, das überraschend oft nützliche Perspektiven für moderne Sprachmodelle liefert.
Wie wir arbeiten
Iterative Entwicklung
Wir bauen Modelle in kleinen Schritten. Jede Version wird ausführlich getestet, bevor wir weitermachen. Das bedeutet weniger spektakuläre Durchbrüche, aber auch weniger Zeit mit der Behebung fundamentaler Probleme.
Datenqualität vor Quantität
Große Datensätze helfen nicht, wenn sie voller Rauschen sind. Wir kuratieren unsere Trainingsdaten sorgfältig und nehmen lieber kleinere, saubere Datensätze als riesige, ungefilterte.
Interdisziplinäre Validierung
Unsere Linguisten prüfen, was die Ingenieure bauen. Unsere Ingenieure hinterfragen, was die Linguisten vorschlagen. Diese Reibung ist produktiv – sie verhindert blinde Flecken.
Transparente Limitationen
Wir dokumentieren, was unsere Modelle nicht können, genauso detailliert wie ihre Fähigkeiten. Das ist für Forschung unerlässlich und für praktische Anwendungen noch wichtiger.
Kontinuierliches Benchmarking
Wir vergleichen unsere Modelle regelmäßig mit aktuellen Alternativen – nicht um besser zu sein, sondern um zu verstehen, wo verschiedene Ansätze ihre Stärken haben.
Offene Zusammenarbeit
Viele unserer Zwischenergebnisse teilen wir mit der Forschungsgemeinschaft. Wir profitieren von Feedback anderer Forscher und tragen zur Gesamtentwicklung des Feldes bei.

Woran wir glauben
Diese Prinzipien leiten unsere Arbeit. Sie sind nicht verhandelbar, auch wenn sie manchmal unpraktisch sind.
Realistische Erwartungen
Wir übertreiben nicht, was Sprachmodelle leisten können. Sie sind Werkzeuge mit spezifischen Stärken und klaren Grenzen. Wer etwas anderes verspricht, schadet dem gesamten Feld.
Methodische Strenge
Reproduzierbarkeit ist nicht optional. Unsere Experimente sind dokumentiert, unsere Daten nachvollziehbar. Wenn etwas nicht funktioniert, sagen wir das – auch öffentlich.
Ethische Verantwortung
Sprachmodelle können Vorurteile verstärken, Desinformation erleichtern und Privatsphäre gefährden. Wir denken über diese Risiken nach, bevor wir etwas veröffentlichen.
Langfristige Perspektive
Schnelle Veröffentlichungen bringen Aufmerksamkeit. Gründliche Arbeit bringt Fortschritt. Wir wählen Letzteres, auch wenn das bedeutet, dass wir seltener Schlagzeilen machen.