Moin. Was ich schrob: OpenAIs crawler berücksichtigt jetzt offenbar eine robots.txt. Gefühlt find ich es eine gute Idee, das Dingen von meinen Posts fernzuhalten. Meinungen?

  • the_third@feddit.deOP
    link
    fedilink
    arrow-up
    8
    ·
    1 year ago

    Über die Föderation können sie auch einfach einen eigenen Server aufsetzen und sich da alles komplett runterladen, so dass die Sperre vermutlich eh keine Sinn ergibt.

    Point taken. Stimmt.

    • ChrisOboe@feddit.de
      link
      fedilink
      arrow-up
      6
      arrow-down
      3
      ·
      1 year ago

      Das wäre doch völlig absurd.

      Entweder sie sind anständig und honorieren die robots.txt (und setzten keine eigene Instanz auf nur um das zu umgehen)

      Oder sie sind unanständig, honorieren die robots.txt nicht und müssen keine eigene Instanz aufsetzten um das zu umgehen.

      So oder so wird sicher niemand eine eigene lemmy Instanz aufsetzen nur um daten zu Farmen.