Parsing-Sites - und ist das in Russland generell legal?

    Nach einer der Definitionen ist Parsen ein Parsen von Informationen. Für eine Person, die nicht an den spezifischen Aufgaben der Erfassung und Verarbeitung von Informationen für Internetprojekte beteiligt ist, bedeutet dies nichts. Und die Definition zeigt, nur allgemein ausgedrückt, die enorme Menge an Arbeit, die Hunderte von Millionen von Menschen und Dutzende von Millionen von Robotern (obwohl virtuell, aber nicht weniger real) jede Minute auf der ganzen Welt leisten. Aber diese Aufgabe ist für eine Person eine häufige Aufgabe - das Vergleichen der Preise von Tickets online, das Auswählen der richtigen Elektronik auf den Websites von Geschäften ... Wenn wir die Preise und Werbeaktionen in einer praktischen mobilen Anwendung des Supermarkts in der Nähe des Hauses beobachten, wird keiner von uns daran denken, uns selbst als Parser zu bezeichnen.
    Bild

    Dennoch existiert, funktioniert und wird natürlich auf vielen Ebenen lebhaft diskutiert: ethisch, rechtlich, technologisch, finanziell und nicht nur.

    Dieser Artikel gibt keine definitive Meinung wieder, gibt keinen Rat und enthüllt keine Geheimnisse - hier werden nur einige Meinungen zum Beispiel der interessantesten Kommentare zu einem bestimmten Artikel über das Parsen betrachtet (50.000 Aufrufe und mehr als 400 Kommentare!) Erfahrung im Parsen von Webprojekten. Mit anderen Worten, wir haben viel Zeit damit verbracht, die interessantesten Kommentare der Leser zusammenzubringen und zusammenzufassen ... sozusagen weltliche Weisheit :)

    Also, über das Parsen:

    "Eine Frage der Technologie." Fantastische Proxies und wo sie leben.


    Genauso wie die Idee, sich selbst zu analysieren, natürlich ist (es ist immer interessant zu sehen, was mit den "Nachbarn" passiert), sind die grundlegenden Methoden ihrer Implementierung ebenso einfach. Wenn Sie wissen möchten, fragen Sie, aber wenn Sie die tatsächlichen Werte eines großen Datenfelds kennen möchten (ob es sich um die Preise von Waren, deren Beschreibungen, Bestellmengen oder Rabatte handelt), müssen Sie häufig und häufig nachfragen. Es ist klar, dass niemandem in den Sinn kommen würde, diese Daten manuell zu erfassen (außer vielleicht einem großen Team von fleißigen Kindern aus südlichen Ländern, die nicht auf humanste Weise inspiriert wurden). Daher werden einfache, effektive Lösungen in der Stirn verwendet: "Stapeln" Sie die Website, richten Sie den Browser ein, Sammeln Sie Bots - und tippen Sie auf die Zielseite, um relevante Indikatoren zu finden. Notieren Sie die Antworten sorgfältig in einem „Notizblock“ in einem praktischen Format, analysieren Sie die gesammelten Daten und wiederholen Sie den Vorgang.

    Hier sind einige Ansätze zur "Parsing-Technik" von unseren Lesern und von uns:

    1. “Selenium farm - and go!” (Ich meine Browser ohne Kopf mit einer BeautifulSoup-ähnlichen Lösung wie Selenium / Splinter). Laut unserem Leser hat er seiner Frau eine kleine Website in einem Docker-Schwarm-Cluster geschrieben, um die Websites der Verkäufer (sie ist Importeurin) zu überwachen, damit diese nicht gegen die RRC / MRC-Richtlinie (empfohlene Verkaufspreise) verstoßen. Laut dem Autor funktioniert alles stabil, die Parsing-Ökonomie konvergiert - "alle Kosten betragen 4 Knoten für jeweils 3 US-Dollar." Richtig, der stolze Autor hat nur ungefähr tausend Produkte und Dutzende von Seiten beim Parsen, nicht mehr :)
    2. "Wir starten Chromium und alles ist in Ordnung, es stellt sich heraus, dass 1 Produkt in 4-5 Sekunden genommen werden kann ...". Es ist klar, dass sich kein einziger Administrator über die hohe Auslastung des Servers freut. Die Seite ist natürlich zu diesem Zweck notwendig, um alle Interessierten zu informieren, aber "es gibt viele von Ihnen, aber ich bin allein", daher werden diejenigen, die besonders interessiert sind, natürlich ignoriert. Nun, es spielt keine Rolle: Chrom kommt zur Rettung - wenn der Browser im "Nur-Fragen-Modus" auf die Website klopft, kann dies geschehen, ohne in der Warteschlange zu stehen. In der allgemeinen Reihe von Parsing-Aufgaben wird das Parsing von HTML-Seiten in 90% der Fälle durchgeführt, und in "besonders schwierigen Fällen" (wenn Websites aktiv geschützt sind, wie der gleiche Yandex.Market, der nach Captcha fragt) wird es von Chromium verarbeitet.
    3. "Reine DIY-Proxys von LTE-Routern / Modems." Es gibt durchaus funktionierende Möglichkeiten, saubere Proxys zu konfigurieren, die zum Parsen von Suchmaschinen geeignet sind: eine 3G / 4G-Modemfarm oder der Kauf von weißen Proxys anstelle einer Reihe von zufälligen schmutzigen Proxys. Es ist wichtig, welche Programmiersprache für ein solches industrielles Parsen verwendet wird - 300 Sites pro Tag (und die richtige Antwort lautet .Net! :). Tatsächlich ist das Internet voll von Sites mit offenen Proxy-Listen, von denen 50% recht gut funktionieren, und es ist nicht so schwierig, Proxy-Listen von diesen Sites zu analysieren, damit Sie andere Sites mit ihnen analysieren können :): Nun, wir tun es.
    4. Ein weiterer Fall zugunsten von Selen: „Ich analysiere mich selbst (aber nicht in RuNet, aber ich fange Bestellungen auf meinem geliebten upwork.com ab, wo es normalerweise als Scraping bezeichnet wird, ein geeigneterer Begriff, IMHO). Ich habe ein etwas anderes Verhältnis, irgendwo zwischen 75 und 25. Aber im Großen und Ganzen, ja, wenn es faul oder schwierig ist, ist noch niemand dem Selen ausgewichen :) Aber von mehreren hundert Websites, mit denen ich arbeiten musste, wurde es nie erkannt Bilder, um Zieldaten zu erhalten. Wenn in HTML keine Daten vorhanden sind, werden diese normalerweise immer in einem JSON-Code abgerufen (wir haben im Folgenden bereits ein Beispiel gezeigt).
    5. "Python Tamers." Und ein anderer Fall für Leser: „In meiner vorherigen Arbeit habe ich Python / Scrapy / Splash für mehr als 180 Websites pro Tag in verschiedenen Größen verwendet, von prisma.fi und verkkokauppa.com bis hin zu kleinen Dingen mit 3-5 Produkten. Ende letzten Jahres haben wir einen solchen Server von Hetzner (https://www.hetzner.com/dedicated-rootserver/ax60-ssd) mit Ubuntu Server an Bord gemietet. Die meisten Computerressourcen sind noch inaktiv.
    6. "WebDriver ist unser Alles." Engagiert in der allgemeinen Automatisierung (wo das Parsen bereits sinkt), so zuverlässig wie möglich (QS-Aufgaben). Eine gute Workstation, ein Dutzend oder zwei Browser gleichzeitig - die Ausgabe ist eine sehr böse, schnelle Dreschmaschine.

    Das "Gentleman's Set" des Schwebenden - 4 virtuelle Maschinen, unbegrenzter Datenverkehr, 4 Prozessoren auf jeder, 8 GB Arbeitsspeicher, Windows Server ... Bisher reicht für jeden neuen Stapel von bedingt 50 Standorten eine eigene virtuelle Maschine aus. Aber es hängt sehr von den Seiten selbst ab. Visual Studio verfügt außerdem über System.Net, das den unter Windows installierten Internet Explorer verwendet. Es funktioniert auch

    „Wie können Sie sich (vor dem Parsen) in Ihrem Kopf schützen? Auf keinen Fall kriechen wir trotzdem. "


    Das Analysieren von Geschäftsideen, die über unser Geschäft sprechen, wird uns ständig vorgehalten.

    1. Ausgabe von Yandex-Parsing, ebenso wie viele SEO-Dienste. „Dafür gibt es mehr Nachfrage, mehr Geld. Es stimmt, sie verkaufen im Grunde das gesamte SEO-Analysesystem. "Aber wir haben die Lieferung nicht analysiert - wir haben nicht nachgefragt, und nach 100 Anfragen wird sofort ein Captcha angezeigt. Wir benötigen saubere Proxies, und es ist schwierig, sie zu beschaffen oder teuer, es ist nicht so rentabel. selbst sind Big Player alles andere als einfach zu halten, und die Leser teilen dies mit uns (wir selbst analysieren Google und Yandex NICHT). Erfahrungsgemäß haben Yandex, Google und ähnliche große Unternehmen eine gewisse Basis mit Subnetzen für Rechenzentren (schließlich werden die Proxy-Datenbanken aktualisiert, und die Hauptakteure abonnieren und sperren sie). Somit entspricht das erhöhte Proxy-Netzwerk auf den IP-Adressen, die an die Rechenzentren vergeben wurden, perfekt dem Verbot mit der Ausgabe von Captcha und anderen Macken. Infolgedessen gibt es nur illegale Optionen beim Kauf von Proxys von Botnetz-Eigentümern und einem ähnlichen „Dreck“. In diesem Fall haben Sie eine echte Benutzer-IP. Und dennoch benötigen solche Unternehmen Cookies, mit denen Sie bereits einige Zeit auf Websites "gecrawlt" haben, auf denen sie Sie nachverfolgen können (z. B. Trefferzahlen). Aber wie unterscheiden sie Parser von NATs in Schlafbereichen? Bedingte 100 Anfragen sind überhaupt nichts.
    2. Schutz vor Parsen: Wenn wir das „Große und Schreckliche“ aus der Überlegung herausnehmen, werden wir uns auf uns konzentrieren, „bloße Sterbliche“. Wenn es diejenigen gibt, die sich mit dem Parsen beschäftigen, müssen es diejenigen sein, die versuchen, sie daran zu hindern. Es ist interessanter, mit lebenden Menschen zu spielen: Ein Element der Rivalität taucht auf, jede Seite versucht, die andere zu überlisten. Und da noch niemand die Absicht hat, Informationen manuell zu sammeln, spielt er, wer den Bot einer lebenden Person am ähnlichsten macht und wer diese Bots effizienter erkennt, während er weiterhin auf Anfragen von echten Benutzern reagiert - die Website soll das Geschäft unterstützen werden wir dadurch abgestoßen. Und im Rahmen der Aufgabe der Unternehmenseffizienz kann man nur die angemessene Verteilung der Ressourcen und die Rentabilität der Maßnahmen berücksichtigen, um sie tatsächlich zu analysieren und dagegen vorzugehen:

      • Sie können sich nicht vor dem Parsen schützen (außer vor "Studenten"), aber Sie können den Schwellenwert für die Ausgaben dafür erhöhen (sowohl Zeit als auch Geld). Aus diesem Grund ist es einfacher, die von uns geschützten Daten (mehrere Abschnitte der Website) nicht zu analysieren, sondern eine fertige Datenbank so zu kaufen, wie wir sie gekauft haben. Tabellen mit Parser-IP-Adressen liegen im Netzwerk, das Anzeigen von Captcha zu dieser Liste am Eingang ist kein Problem. Ebenso ist das Generieren von IDs und Klassen wie bei mail.ru kein Problem und erfordert keine großen Kosten. Ein neues Captcha von Google bestimmt im Allgemeinen sehr genau, ob der Roboter oder nicht. Wenn ein Verdacht besteht, ist es einfach, den Benutzer auszuschneiden und nach einem Captcha zu fragen. Am Ende hat niemand den HoneyPot-Köder abgebrochen, weil er den Bot gefangen hat. Nun, Klassiker, ersetze die Buchstaben im Text, mache Masken usw.
      • Und hier werden wir uns selbst widersprechen: Vielleicht hilft all dies im Einzelfall nicht, aber alles zusammen wird Ihr Leben so kompliziert, dass es unbrauchbar wird. Darüber hinaus erfordern alle diese Techniken im Allgemeinen keinen großen Aufwand. Es ist richtig, dass all diese Techniken viel kosten, so dass es im Wesentlichen keinen Schutz gibt. Dynamische Proxies, Dienste, die Captcha von Indern erkennen, und Selen mit einem genau definierten Aktionsalgorithmus. Alles, was erreicht werden kann - die Entwicklung des Parsers wird mehr kosten, es könnte jemanden abschrecken, aber wenn die Zielseite kein Katalog von eineinhalb Seiten des lokalen Büros der „Hörner und Hufe“ ist, werden sich nur wenige Menschen über den Anstieg der Kosten fürchten.
      • Bei der Verteidigung geht es immer darum, typische Verhaltensmodelle von echten Besuchern sowie Systeme zu verwenden, die "weiße" Bots (Yandex, Google usw.) angemessen identifizieren. Und um sich an einen echten Besucher anzupassen, müssen Sie eine Reihe von Standardübergangskarten kennen. Und dann reicht ein einfacher Proxy-Pool beim Parsen nicht aus. Das System schützt nicht zu 100%, löst jedoch die Aufgabe. Laut Statistik können Sie nachvollziehen, wann die gesamte Site gescannt wurde. Entweder Parser oder Suchmaschinen tun dies. Suchmaschinen reagieren jedoch auf robots.txt, Parser jedoch nicht.

    „Oh wow. Wenn alle Menschen alles mit Bedacht tun würden ... Ich denke, es gäbe zehnmal mehr Arbeitslose. Genug für dein Alter. “

    „Lebe ich umweltfreundlich? Ja, aber vergebens "


    1. In der moralischen und ethischen Ebene der Betrachtung des Problems liegt ein wichtiger Punkt, der sowohl die technischen als auch die rechtlichen Aspekte des Parsings betrifft. Die robots.txt-Datei ist in ihrer Einfachheit prägnant und symbolisch im Namen, den unsere Leser und wir auf unterschiedliche Weise interpretieren:

      • Ihre Tätigkeit als "Fahrer" eines Bots ist genau so "ethisch", wie Ihr Bot der robots.txt-Datei der von Ihnen besuchten Website folgt. Nicht basierend auf Annahmen wie "Produktseiten werden nicht geschlossen", sondern indem buchstäblich Masken für die angeforderten URLs zugelassen und nicht zugelassen werden. Fehlende robots.txt - interpretieren Sie zu Ihren Gunsten; vorhanden, aber Sie verstoßen dagegen - auf jeden Fall verwenden Sie die Website in böswilliger Absicht. Natürlich hat robots.txt keine Gesetzeskraft, aber wenn Sie es wirklich "backen", ist es keine Tatsache, dass es definitiv von den Anwälten weitergegeben wird.
      • Trotz der Tatsache, dass es unmöglich ist, mit Robotern zu verhandeln, ist es manchmal einfacher als mit Menschen, weil in Geschäften Schilder hängen "Foto ist verboten", und dies ist illegal. Und unethisch. „Genau so eine Tradition. robots.txt ist eine Technik. Es geht nicht um Ethik. Wenn Sie angeben möchten, dass Sie das Parsen nicht möchten, erstellen Sie einen Abschnitt wie den folgenden: account.habr.com/info/agreement. Ich weiß nicht, ob eine solche Einschränkung legal ist, aber zumindest können Sie Ihre Wünsche dort in menschlicher Sprache ausdrücken (oder robots.txt erwähnen) und dann über Ethik sprechen. "Unsere Anwälte erwidern:" In keiner Weise wird eine solche Einschränkung legal sein. "
      • Wir denken gleichzeitig über das Parsen und die weitere Verwendung von Informationen nach. „Bei Robots.txt geht es nicht so sehr um das Parsen, sondern um die weitere Veröffentlichung (zum Beispiel in Suchergebnissen). Wenn Sie möchten, dass die Daten von niemandem empfangen werden, sollten Sie den Personenkreis einschränken, der sie sehen kann. Wenn Sie keine Vorhänge an den Fenstern haben, dann gehen Sie nicht nackt. Es mag absichtlich sein, aus den Fenstern zu schauen und hässlich, aber ohne Vorhänge, was behauptet ihr? "
      • Parsing-Ethik ist neutral. Es kann unethisch sein, die erhaltenen Informationen zu verwenden. Aus rein ethischer Sicht hat jeder das Recht, öffentliche Informationen zu erhalten, die nicht privat oder von besonderer Natur sind und die nicht gesetzlich geschützt sind. Die Preise sind sicher öffentliche Informationen. Beschreibungen auch. Beschreibungen unterliegen möglicherweise dem Urheberrecht und dürfen nicht ohne Genehmigung veröffentlicht werden. Es wird jedoch keine Ethik verletzt, auch wenn ich Websites analysieren und meine eigene öffentliche Website erstellen werde, die die Dynamik der Preise und den Vergleich der Wettbewerber widerspiegelt. Es ist sogar ethisch, weil es sozial nützliche Informationen liefert. "
    2. "Es ist möglich, mit den Händen zu sammeln, aber mit einem Roboter kann man nicht parsen." Jedes "Böse" mit der gebotenen Sorgfalt und Sachkenntnis kann gerechtfertigt werden. Dies gilt umso mehr, als es lebende Beispiele gibt, wie sie es in jeder Hinsicht richtig verwendet haben. Wir zitieren unseren Leser: „Ich war vor langer Zeit mit dem Parsen beschäftigt, habe aber immer gebeten, rechtlich und moralisch korrekt zu parsen. Die Zwischenhändler forderten mehrmals die Analyse des Großhändlers (für den Verkauf seiner Waren), der Großhändler selbst hatte nichts dagegen, wollte jedoch nicht in die Entwicklung der API investieren (oder konnte dies aus technischen Gründen nicht tun). Einst beantragte ein Vermittler eines chinesischen Geschäfts die Integration, aber dort war die API des chinesischen Geschäfts so beschissen und beschränkt, dass es notwendig war, die Informationen teilweise durch Parsen zu erhalten. Sobald der Autor und Eigentümer der Site und des Forums von einer freien Site migrieren wollte, was die Datenbank "einklemmte"; Er hat auch die Website des Literaturwettbewerbs und seines Forums integriert, sodass das Thema beim Hinzufügen einer neuen Geschichte automatisch im Forum angezeigt wurde (aus technischen Gründen wäre dies nicht anders möglich). “

    „Wurde der Anwalt gerufen? Zitat kann nicht analysiert werden "


    Unabhängig davon, für welche Seite Sie sich bei der Bestimmung der Quelle der Macht entscheiden: Geld oder Wahrheit - es ist klar, dass es immer schwieriger wird, die Wahrheit zu finden, wenn das Geld gefunden wird. Damit die Diskussion über die Möglichkeit, alles und jedes zu erwerben, einschließlich des Gesetzes selbst und seiner Vertreter, über den Rahmen dieses Artikels hinausgeht, betrachten wir einige rechtliche Aspekte, die in den Kommentaren angesprochen werden:

    1. "Vom Gucken zum Diebstahl ist ein Schritt." Auch wenn alles, was nicht verboten ist, erlaubt ist, glauben unsere Leser: „Ins Schlüsselloch zu gucken ist zumindest hässlich, und wenn der Kunde dann auch das Sparsial als sein eigenes ausgibt, dann ist das direkter Diebstahl. Natürlich ist es klar, dass dies in der Wirtschaft jeder tut. Aber in einer anständigen Gesellschaft ist es immer noch üblich, darüber zu schweigen. "Das Parsen für jemanden und das Verteilen der Parsen als ihre eigenen, wie sie sagen, sind zwei große Unterschiede:" Sie verwirren das Weiche und das Kalte. Wir bieten Parsing-Dienste an. Aber es ist genau die gleiche Art und Weise, wie Sie Hersteller, zum Beispiel Waffen, beschuldigen können, sie getötet zu haben. Wir machen Geschäfte, aber im Geschäft gibt es eine Regel - ist es legal oder nicht. Mein Punkt ist ... Wenn Kunden zu uns kommen und bereit sind, viel zu bezahlen, um Daten zu erhalten - ist es wirklich schlecht ... "
    2. "Hat einen Antrag für eine Medienseite gestellt - genagelt für eine Beschwerde." Forbes-Site, Parsen, Anwendung auf Google Play - was könnte schief gehen? „Einmal habe ich mich entschlossen, einen Antrag für die Forbes-Website zu stellen. Artikel von der Site zu erhalten - hat Seiten analysiert. Ich habe alles im automatischen Modus konfiguriert und eine Anwendung für Android erstellt. Ich habe die Anwendung auf dem Markt veröffentlicht. Ein Jahr später meldete sich ein Anwalt bei mir und forderte die Entfernung des Antrags, da ich Urheberrechte verletze. Ich habe nicht gestritten. Es ist eine Schande, dass Forbes selbst keine Anwendung für seine eigenen Artikel von der Website hat. Es gibt nur eine Website. Und ihre Website ist langsam, lange Zeit geladen und voller Werbung ... "
    3. "Meine Datenbank ist meine Arbeit unter Schutz!" Das Urheberrecht ist ein weiteres Konzept, das einem Dutzend Diskussionsseiten gewidmet sein kann (zusätzlich zu Hunderttausenden vorhandenen), aber es ist auch falsch. Unser Leser gab das Konzept heraus: „Jemand hat eine Warendatenbank erstellt. Verbrauchte eine Menge Ressourcen, um Informationen zu finden, diese Informationen zu systematisieren und Daten in die Datenbank zu stellen. Auf Anfrage eines Konkurrenten analysieren Sie diese Basis und geben sie demselben Konkurrenten für Geld. Denken Sie, dass es keine ethischen Probleme gibt? Was die Rechtsstaatlichkeit betrifft, weiß ich nicht, wie in der Russischen Föderation, aber in der Ukraine kann eine Datenbank urheberrechtlich geschützt sein. "

      Die Verantwortung für die Nutzung der Dienstleistung oder des Produkts liegt jedoch weiterhin bei demjenigen, der sie erwirbt / zu welchem ​​Zweck: „... auch in Russland. Wir bieten Datenerfassungsdienste. Und für diesen Service bitten wir um Geld. Wir verkaufen die Daten nicht selbst. Übrigens warne ich alle Kunden, dass sie gegen das Gesetz verstoßen können, wenn sie beispielsweise Beschreibungen verwenden. “
    4. „Formal haben Sie Recht, aber ich habe einen Artikel über Sie gefunden!“ Das Strafgesetzbuch der Russischen Föderation (Artikel 146) beschreibt nur das Ausmaß von Verstößen, die es erlauben, Urheberrechtsverletzungen als „Straftat“ einzustufen. Die Rechte selbst sind im Bürgerlichen Gesetzbuch beschrieben - und inwieweit die Handlung als „strafbar“ eingestuft werden kann, lässt sich die Frage nach dem „Ausfall der Website“ problemlos beantworten. Aber Aspekte sind wichtig:

      • Dort wird das "große Format" nicht in der Anzahl der Seiten analysiert, sondern in Geld. Wie bewerten Sie Parsen (und seine Regelmäßigkeit) als Urheberrechtsverletzung (!) In Geld? Und wie wird das normalerweise in solchen Fällen gemacht und wo kann eine Geldstrafe von Hunderttausenden Dollar pro Kopie des Films herkommen? Der „entgangene Gewinn“ wird mit dem entsprechenden Koeffizienten berechnet. Sie können aus einigen Verträgen berechnen, wie viel es kostet, die gleichen Informationen legal bei Ihnen zu kaufen und von hier aus „zu tanzen“. Aber für den Anfang sollten Sie es zunächst verkaufen (und nicht öffentlich veröffentlichen), denn wenn Sie eine Figur nachträglich erfinden, wird sie nicht "angetrieben". Obwohl es Risiken gibt: Wissen Sie, wie viel eine kommerzielle Lizenz für einen bedingten Consultant-Plus kostet? Sobald Sie ein Dutzend Grundgesetze überschreiten, werden Sie schnell auf ein Angebot stoßen, diese sehr kommerzielle Version zu kaufen.
      • Unsere Geschichte ist definitiv kein krimineller Fall (und Sie verwechseln nicht die Geldstrafe und den Schaden. Hier haben Sie eine Flasche Bier auf einem Hooligan zerbrochen: Der Schaden beträgt 30 Rubel, die Geldstrafe beträgt bis zu 1000 Rubel, und dann verklagen Sie mindestens eine Billion wegen „entgangenen Gewinns“ in einer Zivilklage, aber das ist es keine Geldstrafe mehr). Sie verkaufen den Preis überhaupt nicht, was wird der Experte schreiben? Insbesondere und nicht "ein guter Anwalt wird ohne Probleme ziehen."

    Zusammenfassend: „Wie ist Parsen gleichbedeutend mit Urheberrechtsverletzung? - Keine. Der Verstoß besteht darin, das Parsen bei uns zu bestellen und dann den Inhalt auf Ihrer Website zu sichern. Das Setzen einer Website ist ein weiterer Artikel. “

    Maxim Kulgin, xmldatafeed.com

    Jetzt auch beliebt: