$50 Million Fundraising, ChatGPT Competition und Decentralized AI: Großes Interview mit den Gründern von Gonka AI, David Liberman und Daniil Liberman - U.Today

UToday

Während die Mainstream-Nutzung von KI-Tools wie Claude oder ChatGPT explosionsartig zunimmt, sind die Geschäftsmöglichkeiten noch zu erkunden. Außerdem könnten zentrale Unternehmen, die solche Dienste anbieten, anfällig für Manipulationen, Angriffe und Zensur sein.

Der dezentralisierte KI-Ressourcen-Sektor steckt noch in den Kinderschuhen. Angeführt von David Liberman und Daniil Liberman ist Gonka AI einer der ersten großen Namen in diesem Segment. In diesem Interview mit U.Today sprechen die KI-Innovatoren über die Herausforderungen und Chancen dezentraler KI-Netzwerke, Finanzierung, Tokenisierung, Geschäftsambitionen und vieles mehr.

U.Today: Hallo David und Daniil, danke, dass ihr gekommen seid. Erzählt uns bitte ein wenig über euer Projekt und euren Hintergrund in KI.

Gonka AI Gründer: Danke, dass wir hier sein dürfen – wir freuen uns, unsere Geschichte zu teilen und über die Ideen hinter Gonka zu sprechen.

Wir bauen seit den meisten unserer Leben gemeinsam an Technologie. Unsere frühen Arbeiten begannen im Bereich verteilte Berechnungen, Computergrafik und Spieleentwicklung, wo wir gelernt haben, Hardware an ihre Grenzen zu bringen und in Bezug auf Leistung, Effizienz und Skalierung zu denken. Mit der Zeit hat sich diese Erfahrung natürlich in die Entwicklung KI-gesteuerter Produkte, Augmented Reality und groß angelegter Systeme verwandelt.

Als Snapchat uns 2016 aufkaufte, arbeiteten wir an AR-Produkten, die von Hunderten Millionen Menschen genutzt werden. Später konzentrierten wir uns durch Product Science auf angewandtes maschinelles Lernen und Leistungsoptimierung für große Produktionssysteme. Das gab uns praktische Einblicke darin, wie moderne KI-Infrastruktur tatsächlich funktioniert – nicht nur theoretisch, sondern unter realen Bedingungen.

Diese Perspektive führte uns letztlich zu Gonka.

Gonka entstand aus einer Zusammenarbeit zwischen Web2-KI-Forschern und Web3-Infrastrukturbetreibern. Bei der Überlegung, wie KI-Infrastruktur global skaliert werden kann, ließen wir uns von Bitcoin inspirieren – nicht als Finanzanlage, sondern als Blaupause für die Koordination massiver, dezentraler Infrastruktur durch offene, arbeitsbasierte Anreize. Während sich ein Großteil der Branche von Proof-of-Work entfernt hat, hat unsere Erfahrung gezeigt, dass bei Innovationen im Bereich Rechenleistung und Hardware arbeitbasierte Systeme äußerst effektiv sein können.

Wir sahen, dass KI-Forscher und Infrastrukturbetreiber komplementäre Stärken mitbringen, die selten zusammenkommen. Forscher verstehen, wie Intelligenz Branchen transformieren kann, während Infrastrukturbetreiber darin exzellent sind, Rechenzentren schnell bereitzustellen und Hardware durch echte wirtschaftliche Anreize zu optimieren. Gonka verbindet diese Welten durch einen compute-first-Ansatz für KI-Infrastruktur.

Die Entwicklung begann im Mai 2024, und bis Ende des Jahres kommunizierten die ersten Knoten bereits im Gonka-Testnetz. Das Mainnet wurde Ende August 2025 gestartet, was den Punkt markierte, an dem das Netzwerk für eine breitere Teilnahme geöffnet wurde. In den Monaten nach dem Mainnet-Start aggregierte Gonka die äquivalente Leistung von über 10.000 H100-GPUs, mit wachsender Beteiligung von GPU-Betreibern und KI-Entwicklern weltweit.

Gonka behandelt Rechenleistung als offene Infrastruktur – überprüfbar, effizient und um echte Beiträge herum aufgebaut.

U.T.: Grundsätzlich, würdet ihr Gonka AI als eine KI- oder eine Web3-Protokoll beschreiben?

G.: Wir würden Gonka vor allem als ein dezentralisiertes KI-Compute-Protokoll beschreiben.

Das Problem, das wir angehen, ist ein KI-natives: Wie Rechenleistung für KI-Inferenz erzeugt, verteilt und geregelt wird. Heute ist diese Schicht hochzentralisiert und wird von wenigen Anbietern kontrolliert, was bestimmt, was gebaut werden kann, wer Zugang erhält und zu welchen Kosten. Gonka wurde entwickelt, um das zu verändern, indem Rechenleistung als offene Infrastruktur und nicht als gated Service behandelt wird.

Dezentralisierung spielt hier eine unterstützende Rolle. Wie Bitcoin einst bei der Hardware-Koordination gezeigt hat, können dezentrale Anreize eine mächtige Methode sein, um reale Infrastruktur effizient zu skalieren. Wir verwenden Web3-Primitives als Werkzeuge, nicht als das Produkt selbst.

Aus Entwicklersicht fühlt sich Gonka wie KI-Infrastruktur an. Entwickler interagieren mit dem Netzwerk über bekannte OpenAI-ähnliche APIs und Inferenz-Workloads, ohne an Blockchains denken zu müssen. Aus Protokollsicht ermöglicht Dezentralisierung, dass das Netzwerk echte Rechenbeiträge verifizieren und sich selbst regieren kann, ohne einen zentralen Eigentümer.

Während Gonka also Web3-Mechanismen auf Infrastrukturebene nutzt, ist sein Zweck klar KI-nativ.

U.T.: Der KI-Sektor wächst rasant, und neue Konzepte tauchen hier und da auf. Was macht Gonka AI in diesem hochkompetitiven Umfeld besonders?

G.: Was Gonka ausmacht, ist, dass wir nicht versuchen, ein weiteres KI-Produkt zu bauen. Unser Fokus liegt auf einer tieferen Ebene: der Ökonomie und Infrastruktur der KI-Rechenleistung selbst.

Die meisten neuen KI-Projekte konkurrieren bei Modellen, Funktionen oder Benutzeroberflächen. Gonka arbeitet eine Ebene darunter. Wir stellen fundamentalere Fragen: Wie wird KI-Rechenleistung erzeugt, wer kontrolliert sie und welche Anreize formen ihre Entwicklung?

Vergleichen wir Gonka mit anderen dezentralen Projekten, gibt es zwei große Unterschiede. Erstens, Gonka richtet Anreize auf echte Arbeit aus, mithilfe eines Proof-of-Work-Konsensmechanismus, während andere Netzwerke Proof-of-Stake verwenden, bei dem Staker (Kapital) incentiviert werden. Bei Gonka verdienen Teilnehmer durch verifizierte Rechenleistung, nicht durch Finanzengineering oder Early-Access. Zweitens, fast alle Rechenressourcen im Netzwerk werden für sinnvolle KI-Aufgaben genutzt, anstatt Sicherheits-Overhead zu verschlingen.

Ein weiterer entscheidender Unterschied ist die Governance. Gonka ist so gestaltet, dass die Betreiber der Infrastruktur sie auch regieren. Es gibt keinen einzelnen Eigentümer, der Preise, Zugang oder Richtung festlegt. Mit der Zeit macht das das Netzwerk widerstandsfähiger und stärker an die tatsächlichen Nutzer gebunden.

Kurz gesagt, Gonkas Fokus ist absichtlich eng, aber grundlegend. Wir konkurrieren nicht darum, das klügste Modell zu sein (obwohl das klügste Modell mit Gonka-Rechenleistung entwickelt werden kann). Wir bauen die Infrastruktur, die es ermöglicht, viele verschiedene Modelle und Ideen zu existieren, ohne durch zentrale Kontrolle ausgebremst zu werden.

U.T.: Einer der Hauptbegriffe im Gonka AI-Narrativ ist „dezentralisiertes KI-Netzwerk“. Aber warum braucht KI etwas Dezentralisiertes, während über 99 % der Nutzung durch von Unternehmen unterstützte Produkte wie Perplexity und ChatGPT abgedeckt werden?

G.: Die Tatsache, dass die meiste KI-Nutzung heute zentralisiert ist, bedeutet nicht, dass das Modell funktioniert – es bedeutet nur, dass es momentan das einzige verfügbare ist.

In der Praxis ist der Zugang zu fortschrittlichen GPUs hochkonzentriert, mit wenigen Hardwareherstellern und hyperskaligen Cloud-Anbietern, die effektiv bestimmen, wer bauen kann, wo und zu welchen Kosten. Nvidia-GPUs stehen im Zentrum des KI-Stacks, und der Zugang dazu wird zunehmend durch langfristige Verträge, regionale Beschränkungen und geopolitische Überlegungen geprägt.

Diese Konzentration ist nicht nur ein technisches Problem – es ist eine wirtschaftliche und souveräne Frage. Der Zugang zu Rechenleistung wird zunehmend geografisch eingeschränkt, wobei die USA und China um Energie, Rechenzentren und fortschrittliche Chips konkurrieren. Diese Dynamik birgt das Risiko, große Teile der Welt in eine strukturelle Abhängigkeit zu bringen, was ihre Fähigkeit einschränkt, zu konkurrieren, zu innovieren oder nachhaltige KI-Wirtschaften aufzubauen.

Gleichzeitig scheitern viele bestehende dezentrale Netzwerke an der Gegenrichtung. Sie verbrennen einen erheblichen Anteil der verfügbaren GPU-Leistung für interne Konsens- und Sicherheitsmechanismen, während sie Kapital belohnen statt tatsächliche Rechenbeiträge. Beide Probleme entmutigen Hardwareanbieter und bremsen echte Infrastruktur-Innovation.

Dezentralisierung wird notwendig, wenn das Wachstum diese Grenzen offenlegt. Systeme wie Gonka sind so konzipiert, dass Teilnahme und Einfluss mit verifizierten Rechenbeiträgen übereinstimmen, sodass Rechenressourcen produktiv genutzt werden können und kleinere, unabhängige GPU-Betreiber Ressourcen bündeln, auf Kosten und Effizienz konkurrieren und die Abhängigkeit von wenigen dominanten Anbietern verringern.

Wenn KI zu einer grundlegenden Infrastruktur wird – ähnlich wie Strom im Industriezeitalter oder das Internet in seinen Anfängen – darf der Zugang zu Rechenleistung nicht von wenigen Gatekeepern kontrolliert werden, die Preise und Regeln einseitig festlegen. Zentrale KI-Produkte werden weiterhin existieren, aber langfristige Resilienz erfordert ein alternatives Modell.

U.T.: Auch der Begriff der Synergie zwischen KI und Web3 wird heute oft überstrapaziert. Was ist euer Standpunkt dazu – wie werden diese beiden Segmente interagieren, und welche Anwendungsfälle seht ihr?

G.: Wir stimmen zu, dass „KI- und Web3-Synergie“ oft in sehr abstrakten Begriffen diskutiert wird. Unser Ansatz ist viel praktischer: Die Interaktion findet auf der Ebene der Infrastruktur und Anreize statt, nicht auf Slogans oder Features bezogen.

KI benötigt enorme Rechenkapazitäten, während Web3 Mechanismen bereitstellt, um Ressourcen und Anreize vieler unabhängiger Teilnehmer zu koordinieren, ohne auf einen einzigen Eigentümer angewiesen zu sein. Gonka befindet sich an dieser Schnittstelle, indem es dezentrale Koordination nutzt, um große KI-Rechenleistungen zugänglich und verifizierbar zu machen.

In der Praxis bietet Web3 die Koordinations- und Verifizierungs-Schicht – stellt sicher, dass Rechenbeiträge echt, messbar und fair belohnt werden. KI liefert die Workloads, die dieser Infrastruktur einen realen Anwendungszweck geben.

Die unmittelbarsten Anwendungsfälle sind KI-Systeme, die von Offenheit und Verifizierbarkeit profitieren. Dazu gehören On-Chain- oder Semi-On-Chain-KI-Agenten, Anwendungen, die transparente Inferenz erfordern, und Systeme, bei denen Nutzer stärkere Garantien darüber brauchen, wie KI-Ausgaben erzeugt werden. Es ermöglicht auch KI-Entwicklern, Inferenz durchzuführen, ohne an einen einzigen zentralen Anbieter oder API gebunden zu sein.

Für uns geht es bei der Synergie nicht darum, KI on-chain zu bringen oder Token in Modelle zu integrieren. Es geht darum, Web3-Mechanismen zu nutzen, um offene, skalierbare KI-Infrastruktur aufzubauen – und KI-Workloads zu verwenden, um dezentralen Netzwerken echten wirtschaftlichen Nutzen zu verleihen.

Wir haben dieses Muster schon gesehen. Bitcoin hat gezeigt, wie abgestimmte Anreize zu einer massiven, global verteilten Recheninfrastruktur ohne zentrale Koordination führen können. Wir sehen KI als nächsten Schritt in dieser Entwicklung – dezentrale Rechenleistung auf echte Intelligenz in der realen Welt auszurichten, anstatt nur Sicherheitsarbeit zu leisten.

U.T.: Könnt ihr die aktuelle Entwicklung und Akzeptanz von KI als eine Blase bezeichnen – und warum?

G.: Wir würden KI selbst nicht als Blase bezeichnen, aber Teile des Marktes drumherum definitiv.

Was wir heute sehen, ist ein vertrautes Muster, das bei jeder grundlegenden Technologie auftritt. Es gibt einen echten Durchbruch – KI-Systeme, die wirklich nützlich und breit eingesetzt werden – und darüber eine spekulative Schicht, bei der Erwartungen schneller wachsen als Infrastruktur und Wirtschaftlichkeit sie tragen können.

Hierher stammt die „Blase“-Erzählung. Nicht von den Fähigkeiten der KI, sondern von der Annahme, dass das Skalieren von KI billig, reibungslos und unbegrenzt möglich ist. In Wirklichkeit wird der Fortschritt bei KI zunehmend durch Infrastruktur eingeschränkt. Rechenleistung ist teuer, konzentriert und begrenzt, obwohl die Nachfrage weiter wächst.

Historisch gesehen entsteht spekulatives Übermaß oft, wenn Kapital sich auf die sichtbarste Innovationsschicht konzentriert und die Kosten der darunterliegenden Schichten unterschätzt. Die spekulative Schicht kann sich korrigieren, aber die Infrastruktur-Schicht wächst weiter – und dort wird langfristiger Wert geschaffen.

Wenn es heute eine Blase gibt, dann nicht bei KI als Technologie. Sondern bei der Überzeugung, dass KI ohne grundlegende Änderungen bei Aufbau, Eigentum und Steuerung der Rechenleistung skalieren kann. Genau das adressieren Systeme wie Gonka.

U.T.: Welche konkreten Anwendungen – sowohl im B2B- als auch im B2C-Bereich – seht ihr für Gonka AI?

G.: Wie gesagt, sehen wir Gonka vor allem als Infrastruktur, deren Einfluss dort sichtbar wird, wo KI-Inferenz bereits kritisch ist, aber durch Kosten, Zugang oder Kontrolle eingeschränkt wird.

Im B2B-Bereich sind die unmittelbarsten Anwendungsfälle rechenintensive Systeme wie KI-Agenten, interne Co-Piloten, Kundenservice-Automatisierung und Datenanalyse-Pipelines. Für viele Teams ist die Engstelle heute nicht die Modellqualität, sondern Preisschwankungen, Kapazitätsgrenzen und mangelnde Transparenz bei zentralen Anbietern. Gonka ermöglicht, diese Workloads auf offene Infrastruktur auszuführen, bei der Zugang und Kosten durch echte Rechenleistung bestimmt werden, nicht durch Vendor Lock-in.

Im B2C- und Angebotsbereich ist die Teilnahme an Gonka bewusst flexibel gestaltet. Hosts können unabhängig GPU-Rechenleistung beitragen – ihre eigene Infrastruktur betreiben und direkt basierend auf verifizierter Rechenarbeit verdienen – oder sich Pools anschließen, die Ressourcen von mehreren kleineren Teilnehmern bündeln.

Pooling ist als Option gedacht, nicht als Pflicht. Es senkt die Einstiegshürde für Hosts mit begrenzten Ressourcen, während unabhängige Betreiber vollumfänglich auf eigenen Bedingungen teilnehmen können. Zusammen ermöglichen diese Modelle, große Betreiber und kleinere Beitragsleister in einer skalierbaren Rechenlage zu vereinen.

Diese Flexibilität erhöht die verfügbare Inferenzkapazität für Verbraucher-KI-Anwendungen, ohne auf einen einzigen zentralen Anbieter angewiesen zu sein, und hält die Teilnahme für eine breite Infrastruktur-Community offen.

U.T.: Wofür wird der GNK-Token genutzt? Wer ist die potenzielle Zielgruppe?

G.: GNK ist der native Utility-Token des Gonka-Netzwerks, hauptsächlich verwendet, um Rechenanbieter (Hosts) für verifizierte Rechenbeiträge zu belohnen und KI-Rechenleistung im Netzwerk zu bezahlen. Er ist so konzipiert, dass er echte KI-Workloads unterstützt und Anreize auf tatsächliche Leistung ausrichtet, nicht auf Spekulation.

Für KI-Entwickler und -Builder bietet GNK Zugang zu dezentraler KI-Inferenz auf offener Infrastruktur. Allgemein ermöglicht es Unterstützern des Netzwerks, zur Idee der KI-Überfluss beizutragen – bei der Rechenleistung effizient koordiniert und zugänglicher gemacht wird, anstatt von wenigen zentralen Anbietern kontrolliert zu werden.

U.T.: Könnt ihr drei Meilensteine von Gonka AI und GNK nennen, auf die ihr bisher besonders stolz seid?

G.: Ein Meilenstein, auf den wir stolz sind, ist die strategische Investition von 50 Mio. USD durch Bitfury. Neben Kapital hat sie bestätigt, dass dezentrale, hoch-effiziente KI-Rechenleistung praktisch aufgebaut und betrieben werden kann, basierend auf Bitfury’s umfangreicher Erfahrung mit groß angelegter Infrastruktur.

Der zweite Meilenstein ist die frühe Netzwerkskala. Innerhalb der ersten drei Monate aggregierte Gonka die äquivalente Leistung von über 12.000 H100-GPUs, was die starke Nachfrage von Hosts nach einem System zeigt, bei dem Belohnungen an verifizierte Rechenbeiträge gekoppelt sind, nicht an Spekulation.

Der dritte Meilenstein ist das Wachstum einer aktiven, infrastrukturbasierten Community aus GPU-Hosts, KI-Entwicklern und Forschern. Dazu zählen frühe Mitwirkende und Berater wie 6block, Hard Yaka, Gcore, Hyperfusion, Greg Kidd und Val Vavilov, neben kontinuierlichem technischen und medialem Engagement. Die Community wächst organisch, mit über 13.000 Teilnehmern, die aktiv Erkenntnisse zu Infrastruktur, Performance und realen KI-Workloads austauschen.

Vieles davon passiert offen im Gonka-Discord, wo GPU-Betreiber, Entwickler und Forscher direkt an der Weiterentwicklung des Netzwerks zusammenarbeiten.

U.T.: Könnt ihr einige Hardware-Spezifikationen der Maschinen teilen, auf denen Gonka AI läuft?

G.: Gonka läuft auf einer heterogenen Gruppe leistungsstarker Maschinen, die von unabhängigen Hosts im Netzwerk beigetragen werden. Das Protokoll ist für moderne, Rechenzentrums-geeignete GPU-Infrastruktur optimiert, die für KI-Inferenz ausgelegt ist.

In der Praxis umfasst das Multi-GPU-Server mit H100- und A100-Äquivalenten Beschleunigern, Enterprise-CPUs, Hochgeschwindigkeits-Speicher und schnelle Interconnects. Die genauen Konfigurationen variieren je nach Host, aber alle Maschinen müssen Leistungsstandards erfüllen, die für groß angelegte Inferenz-Workloads geeignet sind.

Das Netzwerk unterstützt auch Pooling, sodass mehrere Hosts Ressourcen effizient zusammenlegen können. Anstatt starre Hardware-Standards durchzusetzen, konzentriert sich Gonka auf die Gesamtrechenfähigkeit und Zuverlässigkeit, um das Netzwerk durch die Aggregation hochwertiger Infrastruktur verschiedener Betreiber skalieren zu lassen.

U.T.: Trickfrage: Werden KI-Startups jemals in der Lage sein, tragfähige Unit Economics zu erreichen?

G.: Ja – aber nicht automatisch, und nicht alle.

Ein großer Teil des aktuellen „Unit Economics“-Problems kommt aus den Kosten der Rechenleistung: Preistransparenz, Kapazitätsengpässe und die Tatsache, dass Inferenzkosten mit der Nutzung steigen. Wenn mehr KI-Produkte von Demos zu dauerhaft laufenden Anwendungen wechseln, wird die Infrastruktur zum limitierenden Faktor.

Zwei aktuelle Datenpunkte zeigen die Richtung deutlich:

  • Inferenz wird laut Deloitte-Analyse für 2025 etwa zwei Drittel aller Rechenleistung ausmachen, nach etwa der Hälfte 2025 (und einem Drittel 2023). Dieser Wandel ist entscheidend, weil hier die Unit Economics gewonnen oder verloren werden.
  • Zentralisierung hält Rechenleistung teuer und kapazitätslimitiert. 2025 gab Nvidia bekannt, dass zwei Kunden 39 % des Quartalsumsatzes ausmachen – ein deutliches Signal, wie stark „wer die fortschrittlichste Rechenleistung erhält“ im Markt konzentriert ist.

Langfristig wird tragfähige Unit Economics zunehmend davon abhängen, ob Startups auf eine vorhersehbare, skalierbare und kosteneffiziente Rechenzugangsmöglichkeit zugreifen können. Startups, die Rechenleistung nur als nachträglichen Gedanken behandeln, werden bei wachsendem Bedarf Schwierigkeiten haben. Solche, die auf bessere Infrastrukturökonomien setzen – höhere Auslastung, transparente Preise und resilienten Zugang – können definitiv nachhaltige Unit Economics erreichen.

U.T.: Was ist eure allgemeine Prognose für die Kapitalisierung des KI-Sektors in fünf Jahren – und welche Rolle spielt Gonka AI dabei?

G.: Den genauen Kapitalisierungsbetrag in fünf Jahren vorherzusagen, verfehlt den wichtigeren Punkt – die Geschwindigkeit und Nichtlinearität der KI-Adoption, sobald die Bedingungen stimmen.

Wir sehen bereits, wie schnell KI vom „Optionalen“ zum „Standard“ werden kann, sobald Infrastruktur und Verteilung passen. 2025 gab Microsoft bekannt, dass GitHub Copilot etwa 20 Millionen Nutzer hat, und rund 90 % der Fortune 100-Unternehmen es in Produktion nutzen. Diese Art der Akzeptanz war vor wenigen Jahren kaum vorhersehbar und zeigt, wie schnell KI genutzt werden kann, sobald sie in reale Arbeitsabläufe integriert ist.

Mit diesem Beschleunigungseffekt verschiebt sich die Engstelle weg von den Modellen selbst hin zu zuverlässigem, erschwinglichem, immer verfügbaren Rechenkapazitäten. Die Nachfrage wächst schneller als die zentrale Infrastruktur aufnehmen kann, weshalb Zugang, Preissicherheit und Kapazitätsverfügbarkeit zu strategischen Beschränkungen für Startups und große Organisationen werden.

Hier sehen wir Gonkas Platz. Wir bauen keinen festen Fahrplan oder eine bestimmte Marktkapitalisierung an. Gonka ist bewusst community-getrieben und entwickelt sich basierend auf tatsächlicher Nachfrage nach Rechenleistung. Unser Ansatz ist, dass offene, verifizierbare Rechen-Netzwerke eine kritische Schicht der KI-Wirtschaft werden – sie ersetzen keine zentralen Anbieter, sondern begrenzen deren Macht und erweitern den globalen Zugang.

Wenn Gonka Erfolg hat, dann nicht, weil es die Zukunft genauer vorhergesagt hat als andere. Sondern weil es wie Infrastruktur gebaut ist – anpassungsfähig, skalierbar und in der Lage, KI-Adoption zu unterstützen, selbst wenn das Wachstum schneller und ungleichmäßiger verläuft, als es traditionelle Modelle erwarten.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare