Ich bemerke bei allen Social Media Plattformen (auch feddit), dass oft eine sehr schlechte Diskussionspunkte herrscht und immer wieder die gleichen Probleme entschieden und diskutiert werden.

Wäre es nicht eine Möglichkeit hierfür Tools zu verwenden um dem entgegen zu wirken. So etwas wie zB https://www.kialo.com/. Hier könnten Diskussion mit Pro und Kontra festgehalten werden und auch immer wieder referenziert werden. Konnte allerdings keine gute FOSS (free open source software) Lösung bis jetzt finden.

Größter Nachteil ist vermutlich die Usability. Nutzer auf Social Media wollen gar nicht präzise argumentieren, sondern eher relaxed etwas bequatschen. Ein weiter Nachteil den ich sehe, ist, dass sich damit die Threadiverse Bubble kritischer hinterfragen würde und damit Unsicherheiten in den Ansichten aufkommen (eine Art selbstgemachtes Gaslighting), wodurch ihre Vertretung in der Welt schwächer wird (Dunning Kruger).

  • bmaxv@noc.social
    link
    fedilink
    arrow-up
    3
    ·
    edit-2
    1 year ago

    @FreeLunch bin ich im Prinzip ein Freund von, aber eher in der Richtung das wir bestimmte Argumente festhalten und referenzieren sollten.

    Diskutieren ist erstaunlich schwer und pro Kontra ist eigentlich Mist.

    Ich hab hier einen längeren Text dazu und würde insgesamt vorschlagen Positionen gut zu durchdenken, aufzuschreiben und dann in “leicht zu konsumierenende Brocken” aufzuteilen.

    https://bmaxv.github.io/communication_is_hard.html

    (WIP)

    Das weiter zu systematisieren funktioniert interessanter Weise nicht.

    • FreeLunch@feddit.deOP
      link
      fedilink
      Deutsch
      arrow-up
      1
      ·
      1 year ago

      Hi @bmaxv@noc.social, habe deinen Blogeintrag gelesen. Find es cool, dass sich andere Leute hier bereits tiefere Gedanken gemacht haben. Zu deiner Idee mit den Hashes: Warum genau braucht man diese? Nur zum identifizieren der Information? Denke das ist nicht unbedingt notwendig, da die Beschreibung der Information diese ja bereits eindeutig identifiziert (Value Semantics).

      Dein Vorschlag mit der Aufbereitung in gut zu konsumierende Brocken ist vermutlich der beste Ansatz. Die Frage ist aber, wer erstellt diese Brocken und wie werden diese präsentiert und bewertet. Ansonsten ist es ja einfach nur ein Subreddit Wiki, welches sicherlich auch schon oft genutzt wird, aber meiner Meinung nach keine hohe Durchschlagskraft hat, da es nur von den Mods gepflegt wird und auch nicht direkt in die Diskussionen eingebunden ist.

      • bmaxv@noc.social
        link
        fedilink
        arrow-up
        2
        ·
        1 year ago

        @FreeLunch cool, das freut mich.

        Hashes sind nützlich weil sie so reproduzierbar sind.

        Wenn du einen neuen Text findest, wie zum Beispiel einen anderen Blog Text, kann man den sehr leicht und automatisch in Sätze, Absätze oder Zitate zerlegen und herausfinden ob man den Satz oder das Zitat schonmal gehört hat.

        Damit kann man nachträglich rekonstruieren wie oft oder wer bestimmte Argumente benutzt, selbst wenn der ursprüngliche Autor das nicht vorgesehen hat.

        1/2

        • bmaxv@noc.social
          link
          fedilink
          arrow-up
          1
          ·
          1 year ago

          @FreeLunch

          Hashes sind datentechnisch sehr einfach, sie haben eine vorhersagbare Länge, egal wie lang der ursprüngliche Text ist.

          Ich weiß nicht was genau du mit value semantics meinst.

          Außerdem muss der hash nicht nur für genau den exakten Text stehen, das wäre nur der Anfang, dient aber sonst auch gut als einzigartige ID, also könnte man das sinngemäß gleiche Zitat in anderen Sprachen auf den gleichen hash umleiten.

          2/2

          • bmaxv@noc.social
            link
            fedilink
            arrow-up
            1
            ·
            1 year ago

            @FreeLunch

            3/2

            Zum Thema Kategorisierung, Idealerweise müssten sich z.b. fediverse Posts analysieren lassen. Dann findet man schon die häufiger verwendeten Argumente und wie wichtig Themen und Argumente sind würde sich in der Häufigkeit wiederspiegeln.

            Das ist aber nur Theorie. Das mit den hashes hab ich schon versucht ein bisschen zu bauen, die automatische Analyse noch nicht.

            • FreeLunch@feddit.deOP
              link
              fedilink
              Deutsch
              arrow-up
              1
              ·
              edit-2
              1 year ago

              Mit value semantics meine ich, dass die Information eindeutig durch ihren Inhalt (Value) identifiziert wird und nicht durch einen zusätzlichen Schlüssel.

              Hast du dir anstatt von klassischen Hashfunktionen überlegt welche aus NLP (Natural Language Processing) zu nehmen (Word Embeddings)?

              Die Idee mit der nachträglichen Analyse, die ja auch parallel und unabhängig von der Diskussion laufen kann, finde ich interessant. Wir sollten also eine AI feddit analysieren lassen und damit Argumente schön und referenzierbar aufbereiten. Wird aber aktuell nicht gut funktionieren denke ich, da Machine Learning noch nicht weit genug dafür ist. Außerdem vermute ich, dass die Qualität der Aufbereitung besser wird, wenn sich die User aktiv mit der Idee der Aufbereitung auseinander setzen. Sie erkennen dadurch ja Probleme in ihrer Argumentation und können diese aktiv korrigieren. Aber als Ausgangsbasis wäre so eine maschinelle Aufbereitung super um nicht von 0 anzufangen.

              • bmaxv@noc.social
                link
                fedilink
                arrow-up
                2
                ·
                1 year ago

                @FreeLunch nlp spezifische hashes sollte ich mich dann wohl nochmal ansehen.

                Sonst stimme ich dir zu, das wäre ungefähr die Idee.

        • FreeLunch@feddit.deOP
          link
          fedilink
          Deutsch
          arrow-up
          1
          ·
          1 year ago

          Ok aber das geht dann ja nur wenn exakt die gleichen Buchstaben verwendet werden. Dass mit Zitaten und exakt gleichen Wortlaut argumentiert wird ist doch eher selten. Für so einen Anwendungsfall bräuchte man eher ein NLP Word Embedding.