CPV-Codes reichen nicht: Präzise IT-Ausschreibungs-Filter bauen (2026)

Letzte Aktualisierung: April 2026 | Lesezeit: ca. 12 Min.
Wer die CPV-Hauptgruppe 72 (IT-Dienste) abonniert, bekommt eine Flut an Ausschreibungen — von der Wartung der kommunalen Druckerflotte bis zur Cloud-Migration einer Landesbehörde. Für die meisten IT-Dienstleister sind mehr als die Hälfte dieser Treffer irrelevant, weil CPV-Codes zu grob und oft falsch vergeben sind. Dieser Artikel zeigt, warum das strukturell so ist — und wie Sie mit einer dreistufigen Filter-Architektur aus CPV-Codes, Keywords und semantischem Matching die Präzision deutlich erhöhen.
Auf einen Blick
- CPV 72 umfasst über 100 Unter-Codes — zu breit für die meisten IT-KMU
- 60 Prozent irrelevante Treffer sind bei reiner CPV-Filterung die Regel
- Drei-Ebenen-Architektur: CPV (Vorselektion) → Keywords (positiv + negativ) → Semantik (LLM-basiert)
- 30+ Negative-Keywords, die IT-KMU auf die Ausschluss-Liste setzen sollten
- Profil-Setup als unterschätzter Hebel: 15 Minuten sparen wöchentlich 3–4 Stunden
- Messbare KPIs: Precision, Recall, Bearbeitungszeit, Hit-Rate
Das Filter-Problem in Zahlen
Stellen Sie sich ein mittelgroßes IT-Systemhaus mit 60 Mitarbeitenden vor, das öffentliche Aufträge als Vertriebskanal systematisch nutzen will. Der Einstieg ist simpel: Ein kostenloser Alert auf CPV 72 bei evergabe-online.de plus zwei Landesportale. Nach einer Woche liegen 100 Treffer im Postfach.
Wer das erste Mal durch die Liste geht, wird überrascht: Der Großteil der Ausschreibungen passt schlicht nicht. Darunter sind Hausmeister-Verträge mit IT-Komponente, Reinigungsaufträge für Serverräume, Druckerwartungsverträge, Medienagentur-Aufträge, die versehentlich unter CPV 72 eingestellt wurden. Nach einer ersten Sichtung bleiben vielleicht 40 Ausschreibungen übrig. Nach genauerer Prüfung — bei der Sie die Vergabeunterlagen oberflächlich lesen — sind es 10 bis 15, die wirklich zum Leistungsspektrum passen.
Rechnen wir das durch: 100 Treffer in der Woche, je 3 bis 5 Minuten pro erster Prüfung, das sind 5 bis 8 Stunden pro Woche — nur für das Screening. Bei einem internen Tagessatz von 800 Euro entsprechen 6 Wochenstunden etwa 5.000 Euro im Monat. Für ein Screening, das zu 85 Prozent Fehlanzeige produziert. Das ist der Kern des Filter-Problems: Nicht fehlende Ausschreibungen, sondern zu viele falsche.
Wie CPV-Codes wirklich vergeben werden
Die Common Procurement Vocabulary (CPV) ist eine EU-weit standardisierte Klassifikation für öffentliche Aufträge. Sie soll einheitliche Kategorien schaffen und damit automatisierte Filterung ermöglichen. In der Praxis funktioniert das nur eingeschränkt — und zwar aus drei Gründen.
Erstens: Die Vergabestelle entscheidet. Welchen CPV-Code eine Ausschreibung bekommt, legt die ausschreibende Stelle fest. Die zuständigen Sachbearbeiter sind selten CPV-Spezialisten, sondern Jurist:innen oder Verwaltungskräfte mit Vergabewissen. Eine IT-Beratung wird je nach Hintergrund des Sachbearbeiters unter CPV 72200000 (Softwareprogrammierung und -beratung), 79418000 (Beratungsdienste für das Beschaffungswesen) oder sogar unter 79000000 (Dienstleistungen für Unternehmen) eingeordnet.
Zweitens: CPV-Logik folgt nicht IT-Logik. Die CPV-Hauptgruppe 72 heißt "IT-Dienste", die Hauptgruppe 48 heißt "Software-Pakete und Informationssysteme". Wer "Software" hört, denkt an Entwicklung — aber CPV 48 ist für Software-Produkte gedacht, nicht für Dienstleistungen. Eine Softwareentwicklung nach Maß läuft unter 72200000, ein Lizenzkauf unter 48000000. Für einen Scout ist der Unterschied subtil, für das Filter-System entscheidend.
Drittens: Branchengrenzen verwischen. IT-Sicherheitsaudits werden mal unter 72220000 (Beratungsleistungen für Systeme und technische Beratung), mal unter 79417000 (Sicherheitsberatung), mal unter 98900000 (Dienstleistungen von Sicherheitsfirmen) eingestellt — je nach Schwerpunkt der Vergabestelle. Wer nur einen Code filtert, verpasst die Ausschreibungen der anderen Kategorien.
Die Konsequenz ist ernüchternd: Selbst der "richtige" CPV-Filter verpasst schätzungsweise 15 bis 20 Prozent der fachlich relevanten Ausschreibungen. Umgekehrt enthält jeder CPV-Filter einen signifikanten Anteil an Fehlzuordnungen.
Die Drei-Ebenen-Filter-Strategie
Präzises Filtering entsteht nicht aus einem einzelnen Kriterium, sondern aus der Kombination mehrerer Ebenen. Das folgende Modell hat sich in der Praxis bewährt.

Ebene 1: CPV-Vorselektion
Die CPV-Selektion ist nicht perfekt, aber unverzichtbar. Sie reduziert die Grundgesamtheit der Ausschreibungen um 90 Prozent und schafft eine handhabbare Basis. Für IT-Dienstleister sind drei Hauptgruppen relevant:
- CPV 72 (IT-Dienste) — Kernbereich, umfasst 72200000 bis 72900000
- CPV 48 (Software-Pakete) — relevant für Hersteller und Wiederverkäufer
- CPV 79 (Unternehmensdienstleistungen) — selektiv, z. B. 79417000 (Sicherheitsberatung) oder 79610000 (Personalvermittlung)
Die Versuchung ist groß, möglichst viele Unter-Codes zu abonnieren, um "nichts zu verpassen". Genau das ist aber der falsche Weg. Eine Ausgangsliste von 10 bis 15 Codes ist realistisch — 50 Codes führen zu der Treffermasse, die am Anfang des Artikels beschrieben wurde. Mehr Details zu den einzelnen Codes im Artikel CPV-Codes für IT-Dienstleistungen erklärt.
Ebene 2: Keyword-Filterung
Die zweite Ebene ist die Keyword-Prüfung auf Basis der Ausschreibungs-Titel und ersten Absätze der Leistungsbeschreibung. Hier kommen zwei Arten von Keywords zum Einsatz — und die zweite wird systematisch unterschätzt.
Positive Keywords sind Begriffe, die Ihre Kernleistungen beschreiben. Je konkreter, desto besser: Statt "Software" lieber "Anwendungsentwicklung", "Microservice", "API-Integration". Statt "Beratung" lieber "IT-Strategie", "Cloud-Migration", "Informationssicherheit". Positive Keywords erhöhen die Recall-Rate (Sie verpassen weniger relevante Ausschreibungen).
Die folgende Tabelle zeigt typische Positive-Keyword-Cluster für die häufigsten IT-Leistungsbereiche als Start-Bausatz. Die Liste ist nicht vollständig — ergänzen Sie sie um Ihre produktspezifischen Begriffe.
| Leistungsbereich | Beispiel-Keywords (positiv) |
|---|---|
| Softwareentwicklung | Anwendungsentwicklung, Microservice, API-Integration, REST, Frontend, Backend, Fullstack, Mobile App |
| Cloud & Infrastruktur | Cloud-Migration, AWS, Azure, GCP, Kubernetes, Container-Orchestrierung, IaaS, Hybrid Cloud |
| IT-Sicherheit | Informationssicherheit, Penetrationstest, BSI-Grundschutz, ISO 27001, SIEM, IAM, Zero Trust |
| IT-Beratung | IT-Strategie, Enterprise-Architektur, IT-Governance, Digitalisierungsstrategie, Transformationsberatung |
| Datenmanagement | Datenmigration, Data Warehouse, Business Intelligence, ETL, Data Lake, Reporting |
| SAP / ERP | S/4HANA, SAP-Beratung, SAP-Migration, FI/CO, MM, SD, HCM |
| Microsoft-Stack | Microsoft 365, Azure AD, SharePoint, Exchange, Power Platform, Teams-Integration |
| Open Source / Nextcloud | Nextcloud, OpenStack, Open Source, LibreOffice, Souveräne Arbeitsplätze |
| KI & Datenanalyse | KI-Beratung, Machine Learning, Natural Language Processing, RAG, Dokumentenanalyse |
| Personaldienstleistungen | Arbeitnehmerüberlassung, Personalverstärkung, Dienstleistungstage, Berater-Profile |
Negative Keywords sind Begriffe, deren Auftauchen eine Ausschreibung für Sie disqualifiziert. Sie erhöhen die Precision-Rate (weniger Fehltreffer in der Liste). Die folgende Tabelle zeigt 30+ Begriffe, die sich bei vielen IT-KMU als zuverlässige Ausschluss-Signale bewährt haben.
| Kategorie | Negative Keywords |
|---|---|
| Facility / Hausmeister | Hausmeister, Reinigung, Kantinenbetrieb, Gebäudetechnik, Winterdienst |
| Andere Gewerke | Elektriker, Installateur, Bau-IT (sofern nicht gewollt), Gartenbau |
| Medizin / Labor | Medizintechnik (sofern nicht gewollt), Laborausstattung, OP-Geräte |
| Druck / Medien | Druckdienstleistungen (außer Software), Redaktionelle Gestaltung, Postversand |
| Fuhrpark | Fahrzeugvermietung, Leasing-Fahrzeuge, Transportdienstleistungen |
| Personalvermittlung | Zeitarbeit (sofern nicht ANÜ-Modell), Schülerpraktikum, Werkstudent |
| Unvermeidbar | Mobilfunkverträge, Telekommunikationsanschluss, Kabelverlegung (sofern nicht IT-Infrastruktur) |
| Sonderfälle | Blumenschmuck, Catering, Übersetzungsdienste, juristische Beratung (sofern nicht IT-spezifisch) |
Die Liste ist bewusst pragmatisch. Wenn Sie auch Telekommunikationsinfrastruktur anbieten, streichen Sie "Kabelverlegung". Wenn Sie Zeitarbeit über ANÜ leisten, streichen Sie "Zeitarbeit". Das Prinzip ist entscheidend: Eine gepflegte Ausschluss-Liste reduziert die Treffer um weitere 40 bis 60 Prozent.
Ebene 3: Semantisches Matching
Die dritte Ebene ist die qualitative Prüfung der verbleibenden Ausschreibungen auf inhaltliche Passung. Hier kommen große Sprachmodelle ins Spiel — in einer Weise, die generische Keyword-Suche grundsätzlich nicht leisten kann.
Ein Beispiel: Eine Ausschreibung fordert "Erfahrung mit Container-Orchestrierung in produktiven Umgebungen". Ein klassischer Keyword-Filter findet diese Ausschreibung nur, wenn Sie "Container-Orchestrierung" als positives Keyword hinterlegt haben. Ein semantischer Filter erkennt, dass "Kubernetes-Betrieb", "OpenShift-Erfahrung" oder "Docker Swarm" zu Ihrem Profil passen — und markiert die Ausschreibung entsprechend.
Die Grenzen semantischer Filter sind ebenfalls real. Bei sehr kurzen Ausschreibungs-Beschreibungen (unter 200 Wörtern) produzieren LLMs überraschend viele Falschpositive, weil sie Zusammenhänge vermuten, die im Originaltext nicht gestützt sind. Bei sehr langen, komplexen Leistungsverzeichnissen wird die Analyse zuverlässig — aber teuer, weil jede Prüfung einen Token-Call auslöst.
Die praktische Empfehlung lautet: Semantisches Matching lohnt sich ab etwa 50 gefilterten Treffern pro Woche. Darunter ist der manuelle Aufwand kleiner als die Tool-Komplexität. Details zu den verschiedenen KI-Tools im Artikel KI-Tools für Ausschreibungen im Test.
Profil-Setup: Der unterschätzte Hebel
Die beste Filter-Logik versagt, wenn das hinterlegte Unternehmensprofil unpräzise ist. In der Praxis ist Profil-Setup das mit Abstand unterschätzteste Element — 15 bis 20 Minuten Setup am Anfang sparen wöchentlich 3 bis 4 Stunden Screening-Aufwand.
Technologie-Stack präzise. Schreiben Sie nicht "Cloud", sondern "AWS, Azure, GCP mit Schwerpunkt AWS". Nicht "Datenbanken", sondern "PostgreSQL, MSSQL, Oracle Database". Je konkreter, desto besser greifen semantische Filter.
Zertifizierungen exakt. Eine ISO 27001-Zertifizierung ohne Zusatz unterscheidet sich von einer "ISO 27001 auf Basis von BSI IT-Grundschutz". Für öffentliche Ausschreibungen ist die zweite Variante oft gefordert — und die erste wäre bei reiner Keyword-Suche ein Fehltreffer.
Referenz-Branchen pflegen. Welche öffentlichen Auftraggeber haben Sie schon bedient? Bundesbehörden, Landesministerien, Kommunen, Kliniken, Hochschulen? Diese Information hilft, Ausschreibungen mit ähnlicher Eignungskriterien-Struktur zu erkennen.
Geografische Reichweite ehrlich. Bedienen Sie nur das Einzugsgebiet München, oder deutschlandweit? Eine Ausschreibung in Rostock ist für ein Münchner Team nur relevant, wenn es die Reiseaufwände wirtschaftlich abbilden kann. Ehrlich filtern heißt, diese Einschränkung explizit zu hinterlegen.
Team-Größen, die Sie handeln können. Eine Ausschreibung mit 15 parallel benötigten Senior-Berater:innen ist für ein 20-Personen-Haus unrealistisch. Wenn Sie im Profil hinterlegen, welche Team-Größen für Sie machbar sind, filtert eine gute Tooling-Lösung Ausschreibungen außerhalb dieses Bereichs vor.
Wie oft muss der Filter angepasst werden?
Filter sind keine Einmalkonfiguration. Die folgenden Rhythmen haben sich bewährt.
Monatlich: False-Positive- und False-Negative-Review. Nehmen Sie sich eine Stunde Zeit und gehen Sie durch: Welche Treffer der letzten Wochen waren klare Fehler? Welche relevanten Ausschreibungen haben Sie aus anderen Quellen mitbekommen, die Ihr Filter verpasst hat? Aus diesen Fällen entstehen die nächsten Keyword-Anpassungen.
Quartalsweise: Saison-Effekte. Öffentliche Auftraggeber haben Haushaltsrhythmen. Im ersten Quartal werden Jahrespläne umgesetzt, im vierten Quartal endet das Haushaltsjahr mit Restmitteln. Manche Themen (Digitalisierung, KI) haben starke Saisonmuster — erweitern Sie die Keywords entsprechend.
Jährlich: Strukturelle Anpassung. Wenn sich Ihr Leistungsportfolio verändert, muss das Profil folgen. Wer Cloud-Migration zum Kernthema macht, braucht andere Keywords als vor drei Jahren, als noch On-Premises im Vordergrund stand. Halten Sie Profile und Strategie synchron.
Tools vs. Eigenbau: Was wann Sinn macht
Die pragmatische Frage lautet: Wie groß muss die Filter-Aufgabe sein, damit sich ein spezialisiertes Tool lohnt? Die folgenden Schwellenwerte sind Erfahrungswerte, keine absoluten Regeln.
| Treffer pro Woche | Empfehlung | Begründung |
|---|---|---|
| Unter 20 | Manuelles Screening, evergabe-online-Alerts | Kein Tool rechtfertigt den Aufwand |
| 20–50 | Spreadsheet mit Filter-Templates | Strukturierter Prozess, aber kein Tool-Investment |
| 50–100 | Tool-Einstieg in Erwägung ziehen | Semantisches Matching bringt messbaren ROI |
| Über 100 | Spezialisiertes Tool ist Pflicht | Manuelles Screening skaliert nicht mehr |
Ein Vergleich der verfügbaren Tools — inklusive einer offenen Einordnung des eigenen Produkts — findet sich im Ausschreibungs-Software-Vergleich.
Praxisbeispiel: Filter-Evolution eines IT-Systemhauses
Das folgende Beispiel beschreibt ein typisches IT-Systemhaus mit 60 Mitarbeitenden, das öffentliche Ausschreibungen als Vertriebskanal aufbauen will. Die Zahlen sind repräsentativ und illustrieren die Wirkung der einzelnen Filter-Ebenen.
Ausgangspunkt (nur CPV 72): 200 Treffer pro Woche. Davon sind etwa 15 fachlich relevant und weitere 170 bis 180 sind Fehlzuordnungen oder inhaltlich zu weit vom Kerngeschäft entfernt. Screening-Aufwand: 10 bis 12 Stunden pro Woche. Precision: 7,5 Prozent.
Nach Einführung von Negative-Keywords: 120 Treffer pro Woche. Die Ausschluss-Liste entfernt rund 40 Prozent der Fehltreffer (Hausmeister-Aufträge, Medizinausstattung, reine Facility-Themen). Relevante Treffer: 18 — etwas mehr als vorher, weil durch das genauere Screening auch manche Grenzfälle erkannt werden, die vorher zu schnell aussortiert wurden. Screening-Aufwand: 6 bis 7 Stunden. Precision: 15 Prozent.
Nach Einführung semantischem Matching: 40 Treffer pro Woche. Die LLM-gestützte Prüfung filtert Ausschreibungen heraus, die zwar Keywords enthalten, aber inhaltlich nicht passen (z. B. "IT-Beratung" im Kontext von Schulungen statt Beratungsleistung). Relevante Treffer: 22. Screening-Aufwand: 2 bis 3 Stunden. Precision: 55 Prozent.
Nach Profil-Update mit geografischen und Branchen-Filtern: 25 Treffer pro Woche. Durch die explizite Eingrenzung auf Bayern und Baden-Württemberg sowie die Konzentration auf bestimmte Zielbranchen (Landesbehörden, Hochschulen, große Kommunen) fallen weitere 15 Ausschreibungen heraus. Relevante Treffer: 19. Screening-Aufwand: 1 bis 1,5 Stunden. Precision: 76 Prozent.
Das Ergebnis: Bei gleichbleibender Recall-Rate wurde der Screening-Aufwand um etwa 85 Prozent reduziert. Die Zeit, die vorher für manuelle Sichtung draufging, kann jetzt in die Qualifizierung und Angebotsausarbeitung der relevanten Ausschreibungen fließen.
Messbare KPIs für die Filter-Qualität
Wer seinen Filter langfristig verbessern will, braucht messbare Kennzahlen. Die folgenden vier KPIs haben sich bewährt.
Precision (Relevante Treffer / Gesamte Treffer). Zielwert ab 70 Prozent. Unter 40 Prozent ist der Filter zu grob, über 90 Prozent ist er vermutlich zu eng (Gefahr von False Negatives).
Recall (Gefundene relevante Ausschreibungen / alle relevanten Ausschreibungen). Schwerer messbar, weil es einen Ground Truth braucht. Gängiger Ansatz: Stichprobenartig alle Treffer eines Landesportals für zwei Wochen manuell durchgehen und vergleichen, wie viele davon der Filter identifiziert hätte.
Bearbeitungszeit (Stunden pro Woche für Screening). Ein sinnvoller Zielwert liegt bei unter 2 Stunden pro Woche für ein Unternehmen, das 20 bis 30 Treffer verarbeitet.
Hit-Rate auf Angebote (Anteil der Treffer, die zu einem Angebot führen). Ein gutes Filter-Profil führt zu einer Hit-Rate von 40 bis 60 Prozent — das bedeutet, aus 10 Treffern werden 4 bis 6 Angebote. Alles darunter deutet auf zu breite Filter hin.
Häufig gestellte Fragen
Wie viele CPV-Codes sollte ich im Profil haben?
10 bis 15 Codes sind für die meisten IT-KMU realistisch. Wer deutlich mehr hinterlegt, produziert Rauschen; wer weniger hat, verpasst Quereinsteiger-Themen. Konzentrieren Sie sich auf die 72er-Gruppe plus 2 bis 3 gezielte Codes aus 48 und 79.
Ist ein einzelner CPV-Code für meine Nische genauer?
Kommt auf die Nische an. Für sehr spezialisierte Anbieter (z. B. Nextcloud-Hosting, Identitätsmanagement-Spezialisten) ist ein einzelner Code manchmal ausreichend — aber meistens führt er zu einem hohen Anteil verpasster Ausschreibungen, weil Vergabestellen nicht immer den naheliegendsten Code wählen.
Können Negative-Keywords auch relevante Ausschreibungen ausschließen?
Ja, und das ist der häufigste Fehler beim Setup. Wer "Reinigung" als Negative-Keyword hinterlegt, blockt auch eine Ausschreibung für "Datenbereinigung" oder "Code-Cleanup". Lösung: Negative-Keywords möglichst spezifisch formulieren oder mit Wort-Kombinationen arbeiten.
Wann lohnt sich der Umstieg auf semantisches Matching?
Ab etwa 50 Treffern pro Woche rechnet sich der Tool-Aufwand. Darunter sind die Produktivitätsgewinne zu klein, um den zusätzlichen Komplexitätsschritt zu rechtfertigen.
Wie oft werden neue CPV-Codes eingeführt?
Die CPV wird durch die Europäische Kommission verwaltet und alle paar Jahre aktualisiert. Größere Revisionen sind selten, kleinere Ergänzungen kommen häufiger. In der Praxis reicht eine jährliche Prüfung, ob sich für Ihre relevanten Bereiche etwas geändert hat.
Interne Querverweise
Dieser Artikel ist Teil eines Clusters zu Öffentlichen IT-Ausschreibungen finden. Eng verbunden sind:
- CPV-Codes für IT-Dienstleistungen erklärt — Definition und Übersicht der relevanten Codes
- Vergabeplattformen im Vergleich — wo die Ausschreibungen überhaupt auftauchen
- 16 Bundesländer, 100+ Portale — wie man mehrere Portale bündelt
- Ausschreibungen automatisch finden mit KI — Grundlagen KI-basierter Filterung
- Go/No-Go-Matrix — nach dem Filter folgt die Entscheidung
Zusammenfassung — Die wichtigsten Erkenntnisse:
- CPV-Codes sind die Vorselektion, nicht der Filter. Allein produzieren sie 60–85 % Rauschen
- Drei-Ebenen-Architektur (CPV → Keywords → Semantik) reduziert Fehltreffer um 75–85 %
- Negative-Keywords sind der unterschätzte Hebel — eine Liste mit 30+ Ausschluss-Begriffen ist realistisch
- Profil-Setup ist wichtiger als Tool-Auswahl: 15 Minuten sparen 3 Stunden pro Woche
- Semantisches Matching lohnt sich ab 50 Treffern pro Woche — darunter reicht manuelles Screening
- KPIs (Precision, Recall, Hit-Rate) machen die Filter-Qualität messbar und verbesserungsfähig
Fazit: Präzise Filter sind die Voraussetzung für jeden systematischen Vertriebskanal
Wer öffentliche Ausschreibungen als Vertriebskanal systematisch nutzen will, kommt an der Filter-Frage nicht vorbei. Ein schlechter Filter produziert zwei Schäden gleichzeitig: Er verschwendet Kapazität auf irrelevante Treffer, und er lässt fachlich passende Ausschreibungen im Rauschen untergehen. Beide Effekte wirken direkt gegen das Ziel, aus Ausschreibungen einen planbaren Kanal zu machen.
Die gute Nachricht: Filter-Qualität ist kein Geheimnis und keine Raketenwissenschaft. Sie entsteht aus drei Ebenen, einem sorgfältigen Profil-Setup und einem disziplinierten Review-Rhythmus. Wer diese Grundlage legt, reduziert den Screening-Aufwand um 70 bis 85 Prozent — und gewinnt die Zeit, die für die wirklich wertschöpfenden Tätigkeiten gebraucht wird: Angebotsqualifizierung, Proposal-Writing, Delivery-Vorbereitung.
Der natürliche nächste Schritt sind Tools, die diese dreistufige Logik automatisieren. Die Unterschiede zwischen den verfügbaren Lösungen — inklusive der offenen Darstellung des eigenen Produkts — finden sich im Ausschreibungs-Software-Vergleich.
Lassen Sie Tendit Ihr Filterprofil in 15 Minuten aufsetzen und testen Sie die Präzision 8 Wochen lang kostenlos: usetendit.com
Verpassen Sie keine relevante IT-Ausschreibung mehr
Tendit findet automatisch die passenden öffentlichen Aufträge für Ihr Unternehmen. 8 Wochen kostenlos.
Jetzt kostenlos testen


