Unsere Community steckt voller beeindruckender Persönlichkeiten – mit ganz eigenen Wegen, Perspektiven und Geschichten. Genau diese Vielfalt macht MentorMe so besonders. Dieses Mal haben wir unserer MentorMe-Wegbegleiterin und Chatbot-Entwicklerin Serviola Beqiraj ein paar spannende Fragen gestellt.

Wenn dich jemand auf einem Festival trifft und fragt: „Was machst du so?” – was antwortest du?

Ich würde je nach Gesprächspartner:in und Situation immer etwas anderes antworten, etwa so: Mein Herz schlägt für viele Themen. Technologie interessiert mich genauso wie Poesie. Ich verbinde Technologie mit Menschlichkeit – KI mit Herz. Ich bin auch sehr neugierig, auf Kulturen, Sprachen und vor allem auf Menschen und ihre Geschichten.

Was treibt dich an und welche Zukunft möchtest du mitgestalten?

Was mich antreibt, ist der Wunsch, Dinge zu verändern und zu verbessern. Ich lege oft den Finger in die Wunde und hinterfrage kritisch bestehende Strukturen, da sie oft nicht sinnvoll sind und den Menschen nicht dienen. Mein Ziel ist es, Systeme von Grund auf tiefgreifend zu verändern oder komplett zu erneuern, nicht oberflächlich, sondern tiefgehend und strukturell, damit sie den Menschen nützen und deren Lebenswelt schöner machen. Oft erleben wir, wie Technologie Menschen zu ihren Bedürfnissen formt, anstatt menschliche Bedürfnisse zu erfüllen. Ich wünsche mir eine menschenzentrierte Zukunft, in der Technologie als Werkzeug im Dienst der Menschen steht. Dabei meine ich alle Menschen, insbesondere diejenigen, die aktuell wenig Mitspracherecht haben, weil sie unterprivilegiert sind.

Was war der Moment, in dem du wusstest: MentorMe ist ein Raum, in dem ich wirken will?

Zu  MentorMe kam ich während der Corona-Pandemie. Inspiriert haben mich die unterschiedlichen Formate und der echte Begegnungs- und Erfahrungsraum. Besonders in dieser Zeit, in der wir doch alle sehr eingeschlossen waren, hat mir MentorMe einige Türen und Fenster zur Außenwelt geöffnet, den Kontakt zu einer tollen Community und zu Frauen ermöglicht, die einen anderen Erfahrungshorizont mitbringen. Das war sehr bereichernd. Nach Corona war ich bei Treffen vor Ort in Berlin dabei, das war natürlich noch schöner, sich persönlich zu treffen und auszutauschen.

Woher kommt dein Feuer für das, was du tust – gab es einen Moment oder eine Erkenntnis, die dich bis heute antreibt?

In der Schule habe ich mich schon gefragt, warum sie nicht Mut, Kreativität, Freude am Lernen und kritisches Denken fördert. Ich erinnere mich noch, wie ich im Deutschunterricht viel lieber meine eigenen Gedanken zu Büchern entwickelt habe, statt zu erraten, was der Autor – meist waren es ja männliche Autoren – womöglich gemeint haben könnte. Denn eigentlich wissen wir das gar nicht, und wie bei jedem Kunstwerk geht es doch darum, was wir selbst darin sehen und wie wir es wahrnehmen. Heute sehe ich eine ähnliche Dynamik bei KI: Wir lassen uns oft Antworten vorkauen, anstatt kritisch zu hinterfragen und selbst zu denken. Dabei sind KI-Systeme letztendlich nur Daten ohne Gefühle und echte Erfahrungen – sie können uns nicht abnehmen, nach innen zu schauen und eigene Schlüsse zu ziehen. Die KI-Welt finde ich dennoch sehr faszinierend, weil sie uns den Spiegel vorhält, was gesellschaftliche Ungleichheiten angeht. Aber das ist kein Naturgesetz. In der KI wie im echten Leben haben wir die Wahl und können etwas dagegen tun – durch ausgewogenere Daten, inklusive Entwicklungsteams und das Hinterfragen von Zweck und Machtdynamiken. So wie der Menschenrechtsaktivist Derrick Bell es mal formulierte: „Um die Dinge zu sehen wie sie sind, muss man sie sich so vorstellen, wie sie sein könnten.” Daher habe ich das Bedürfnis, Tech so zu gestalten, dass sie alle einschließt.

Für alle, die Bernie noch nicht kennen: Was genau ist Bernie – und wie kam es ursprünglich zu der Idee?

Ja, Bernie, oder wie ich sie liebevoll nenne, Bernadette, ist der von mir entwickelte Chatbot von MentorMe, sie ist die erste Expertin auf deiner MentorMe-Reise. Sie fungiert als Mentorin und gibt direkte, kultursensible und intersektionale Antworten auf Fragen der MentorMe Community oder an Interessierte. Bernie ist mein erstes KI-Projekt, daher ein besonderes Herzensprojekt für mich.

Was war die verrückteste, schönste oder überraschendste Erfahrung während der Entwicklung von Bernie?

Bernie lernt extrem schnell – sie konnte sehr rasch gendergerechte Sprache verwenden, kultursensibel kommunizieren und mehrere Sprachen sprechen. Was mich besonders überrascht hat: Schon nach wenigen Trainingszyklen mit gezielt diversen Beispieltexten begann sie, automatisch inklusive Sprache zu verwenden und sensibel auf kulturelle Nuancen zu reagieren. Das zeigt, wie wichtig die Qualität der Trainingsdaten von Anfang an ist.

Du betrachtest KI intersektional und feministisch – wie zeigt sich das ganz konkret in deiner Arbeit? Was heißt das für dich ganz konkret – vielleicht an einem Beispiel? Welche Fragen stellst du, die andere vielleicht übersehen?

KI sollte die Welt in all ihren Facetten widerspiegeln und Machtstrukturen kritisch hinterfragen – das ist für mich feministische, intersektionale KI-Entwicklung. Dabei geht es darum, mehrfache Diskriminierung aufgrund verschiedener Merkmale wie Geschlecht, Herkunft oder sozialer Lage zu berücksichtigen. Ein krasses Beispiel aus den Niederlanden zeigt, warum das so wichtig ist: Dort diskriminierte ein KI-gestütztes Sozialsystem systematisch alleinerziehende Frauen, häufig mit Migrationshintergrund, aus sozial benachteiligten Regionen. Die KI traf ihre Entscheidungen auf Basis historischer Daten, die gesellschaftliche Vorurteile widerspiegeln. Dieses Beispiel zeigt sehr eindrücklich, wie tief verwurzelte Vorurteile unsere Wahrnehmung prägen und wie gefährlich es sein kann, bei sensiblen gesellschaftlichen Entscheidungen blind auf KI-Systeme zu vertrauen. Denn solche Systeme reproduzieren nicht nur bestehende Ungleichheiten, sondern verstärken diese häufig sogar noch. Die zugrundeliegenden Daten spiegeln vergangene Diskriminierung wider, wodurch die KI diese Muster perpetuiert und unbewusst sozial marginalisierte Gruppen weiter benachteiligt. Dies macht deutlich, warum es wichtig ist, bei der KI-Entwicklung und Nutzung sich immer zu fragen: Wer ist in den Daten repräsentiert – und wer fehlt? Wessen Perspektive wird erzählt, welche wird ausgelassen? Wessen Interessen dient die KI? Diese scheinbar simplen Fragen sind entscheidend, denn fehlende Repräsentanz bedeutet Unsichtbarkeit. Aus meiner Sicht sollten KI-Tools in sensiblen Bereichen stark reguliert werden und strenge Transparenzpflichten erfüllen, wie es im EU AI Act auch vorgesehen ist.

Wo erlebst du KI heute noch als schmerzhaft – und wann hast du gemerkt: „Das ist kein technisches, sondern ein strukturelles Problem“?

Fast jedes Mal, wenn ich KI nutze, fällt mir beispielsweise auf, dass das Männliche oft als Norm dargestellt wird, etwa in Bildern. KI-Daten stammen meist aus weiß- und männlich dominierten Quellen; marginalisierte Stimmen oder Perspektiven aus dem globalen Süden fehlen oft. Das Problem ist strukturell, nicht rein technisch. Eine Schwierigkeit ist, dass die Diskriminierung nicht immer sichtbar ist. Teilweise weiß man auch nicht, wann solche Systeme genutzt werden, weshalb es schwierig ist, sich dagegen zu wehren. NGOs wie Algorithm Watch sammeln solche Fälle, machen sie sichtbar und setzen sich für Regulierung ein.

Manche sagen: „KI ist nur so gut wie die Daten, die wir ihr geben.“ – was würdest du ergänzen oder widersprechen? Warum ist es aus deiner Sicht so wichtig, dass marginalisierte Perspektiven in der KI-Entwicklung berücksichtigt werden – gerade bei Community-nahen Projekten wie Bernie?

„Trash in, trash out“, das stimmt, doch das Problem geht tiefer als nur schlechte Daten, es geht auch um Stereotype in den Daten und um Machtstrukturen in KI-Unternehmen. Teams sind häufig überwiegend männlich – das prägt das Produkt subtil, aber deutlich. Wir wollen eine diskriminierungsfreie Welt, in der alle gleiche Chancen und Rechte haben. Wenn marginalisierte Perspektiven von vornherein bei der KI-Entwicklung nicht berücksichtigt werden, dann fehlen sie – und das hat gravierende Folgen, wie wir schon gesehen haben. Gerade bei marginalisierten Gruppen ist das noch problematischer, weil der Algorithmus noch impliziter diskriminiert als Menschen. Bei der Entwicklung von Bernie haben wir darauf geachtet, dass sie diskriminierungsfreie, wertungsfreie Antworten gibt. Wir nutzen verschiedene Anredeformen und haben Bernie kultursensibel gestaltet, weil es uns wichtig war, diesen Aspekt von Anfang an mitzudenken.

Was wäre für dich ein radikal gerechter Umgang mit KI – abseits von Buzzwords und Business-Sprech?

Ich wünsche mir, dass wir mehrere Schritte zurückgehen und uns viel mehr grundlegende Fragen stellen. Was ist der Zweck der KI? Soll sie nur reproduzieren oder Systeme transformieren und zum Guten verändern? Konkret würde das bedeuten: KI-Systeme müssten ihre Entscheidungen erklären können. Bei Bewerbungsverfahren oder Krediten wüssten wir, warum jemand abgelehnt wurde. Teams aus verschiedenen Hintergründen würden gemeinsam entwickeln, nicht nur weiße Männer aus privilegierten Schichten. Und bevor ein KI-System eingesetzt wird, würde man fragen: Wem nützt es wirklich? Es ist wichtig zu verstehen: Wenn alles so läuft wie bisher, zementiert KI bestehende Machtstrukturen weiter. Daher ist die Teilhabe von Frauen, marginalisierten Gruppen und verschiedenen kulturellen Hintergründen in der KI-Welt umso wichtiger – nicht nur in der Nutzung, sondern auch in der Entwicklung und insbesondere an Entscheidungsstellen. Ich bin aber auch überzeugt, dass wir gemeinsam eine KI-Welt schaffen können, von der auch die echte Welt profitieren kann. Es gibt bereits zahlreiche positive KI-Projekte, die in diese Richtung gehen. Ich habe das Gefühl, wir stehen an genau dieser Schwelle.

Hast du ein paar konkrete Beispiele, die zeigen, wie KI sinnvoll und gerecht eingesetzt werden kann?

Ja, zum Beispiel Te Hiku Media in Neuseeland nutzt KI, um die indigene Sprache te reo Māori zu bewahren und setzt sich für die Datensouveränität der Māori ein. Die Sprachdaten stammen größtenteils von der Community selbst und werden unter Mitwirkung und Kontrolle der Gemeinschaft genutzt – entwickelt von Menschen, die direkt von Sprachverlust betroffen sind und ihre kulturelle Perspektive in den Prozess einbringen. Ebenso inspirierend ist Shemotion, an dem ich mitwirke: eine KI, von Frauen für Frauen entwickelt, die in intersektionaler Sprache die Resilienz von Frauen stärkt und den Gender Medical Gap in der Gesundheitsversorgung verringert. Sie ist gezielt auf einen bisher kaum beachteten Marktbedarf ausgerichtet und zeigt, wie Intersektionalität in der Praxis wirksam werden kann. Auch hier wird das System von Personen mit unterschiedlichen Lebensrealitäten entwickelt, die ihre Perspektiven aktiv einfließen lassen und die Daten gezielt positiv nutzen – als Werkzeug für Stärkung und mehr Gerechtigkeit. Solche Projekte zeigen, wie kraftvoll KI sein kann, wenn die Menschen, um die es geht, auch diejenigen sind, die sie gestalten.

Was hat dich in letzter Zeit richtig gepackt – sei es ein Text, ein Streitgespräch oder eine Beobachtung?

Besonders inspirierend finde ich die Community feminist AI von der Wissenschaftlerin Eva Gengler und Andreas Gengler, die einen besonderen Raum für feministische und intersektionale Perspektiven in KI geschaffen haben, wo es auch darum geht, sich auszutauschen, zu lernen und gemeinsam Veränderungen anzustoßen. Augenöffnend fand ich das Buch „Atlas der KI“ von Kate Crawford, insbesondere um die Machtstrukturen hinter KI zu verstehen.

Gibt es einen Gedanken, den du Menschen mitgeben möchtest, die sich an der Schnittstelle von Gerechtigkeit und Technologie engagieren?

Wie Audre Lorde sagte, werden die Werkzeuge des Meisters niemals das Haus des Herrn zerstören. Daher seid machtkritisch, stellt Fragen und lass uns gemeinsam unnütze und ungerechte Strukturen durchbrechen und etwas Neues bauen. Gemeinsam sind wir stärker.

Die MentorMe Community hört dir zu – was möchtest du sagen, das auf keinen Fall untergehen darf?

Bewahrt die echten Räume und das Menschliche in der Technologie. Jede von uns hat Stärken und Kompetenzen, die wir alle brauchen. Gemeinsam können wir viel erreichen und Schönes bauen.

Vielen Dank für deine Zeit und deine Offenheit, liebe Serviola!

Foto-Credits an: Sophie Weise-Meißner

Weitere Interviews mit anderen spannenden Persönlichkeiten und Teams aus der MentorMe Community findest du in unserem Blog. Viel Freude beim Eintauchen in das, was uns ausmacht. Du bist Mentee oder Mentor*in bei MentorMe Germany und möchtest auch an dieser Reihe mit deinem Match teilnehmen, dann komm gern auf uns zu!

Du möchtest auch Teil unserer Community werden? Das freut uns sehr! Hier kannst du dich als Mentee sowie als Mentor*in anmelden!