Blev nysgerrig på hvilke operativsystemer folk på feddit.dk benytter sig af. I følge Wikipedia bruger 69% Windows, 17% macOS, chromeOS 3.2% og 2.9% Linux.

Jeg bilder mig ind at folk på feddit.dk generelt bekymrer sig mere om privatliv end baggrundsbefolkningen, og formentlig også er mere nørdede. Afspejler dette sig mon i valg af OS?

Jeg bruger linux mint. Før det brugte jeg ubuntu. Er lidt nysgerrig på at prøve red hat, da den modsat Debian, som Mint og Ubuntu udspringer af, er udviklet af et stort, kommercielt firma. I hvertfald siden 2018, hvor IBM købte red hat.

Da jeg ikke skaber det store indhold der kræver specialt software, behøver jeg ikke Windows eller macOS. Så kører faktisk linux som det eneste OS ( på min PC, telefonen kører Android ).

Grunden hertil er at jeg synes ideologien om åbent software er virkelig genial. Og føler samtidig at jeg går mere fri for indsamling af privatlivsdata, frem for hvis jeg fx brugte Windows, hvilket jeg også er stor fan af. Dette, samt at jeg som ung også var nysgerrig på open source og mere nørdede alternativer, er årsagen til at jeg i dag kører linux. Og well, jeg har heller ikke rådighed til kraftigt HW der kan køre Windows flydende.

  • DreadPotato
    link
    fedilink
    arrow-up
    1
    ·
    11 months ago

    Nej chatGPT siger blankt nej til at lyve direkte, det er en fast reaktion den kommer med. Men derfor behøver alle chatbots jo ikke have den faste reaktion til det at skrive usandheder.

    ChatGPT skriver faktisk også gerne ting der er faktuelt forkert, men på en meget overbevisende. Det er jo ikke bevidst for at vildlede, men fordi den er trænet på data med fejl i, vil den kunne gengive de fejl som fakta.

    • SorteKanin@feddit.dkM
      link
      fedilink
      arrow-up
      3
      ·
      11 months ago

      Det er jo ikke bevidst for at vildlede, men fordi den er trænet på data med fejl i

      Det er ikke helt derfor. Selv hvis den var trænet med 100% faktuel data ville den stadig af og til give faktuelt forkerte svar. Den er trænet til at gengive sprog. Det gør den udelukkende på en sandsynlighedsberegning, altså “hvilket næste ord er det mest sandsynlige?”. Fx hvis det første ord er “Jeg” så er det næste ord med ret stor sandsynlighed “er”.

      Forestil dig så at den er trænet på 100% faktuel data. I det datasæt er der disse to sætninger:

      • “Jorden er rund.”
      • “En pandekage er flad.”

      Når ChatGPT så skal til at beslutte sig for hvad den vil skrive kan det jo være den kommer til ordet “Jorden” på et tidspunkt. Så ser den i sin data at “er” sandsynligvis er det næste ord. Så har vi altså “Jorden er”. Så kigger den igen i sin data og ser at efter “er” kommer mange forskellige ord, fx “rund” og “flad”. ChatGPT vælger med en vis sandsynlighed det ene eller det andet, afhængig af hvor mange af de følgende ord den har set. I vores eksempel ville den altså med 50% chance vælge “flad” og så ville den sige “Jorden er flad”.

      Det er selvfølgelig forsimplet, men pointen er at ChatGPT sagtens kan lave fejl som ikke findes direkte i dens datasæt.

      • DreadPotato
        link
        fedilink
        arrow-up
        2
        ·
        11 months ago

        Ja det har du selvfølgelig ret i også kan skabe fejl i dens svar, tak for præcisering 👍

    • Klorofyl@feddit.dkOPM
      link
      fedilink
      arrow-up
      1
      ·
      11 months ago

      Men derfor behøver alle chatbots jo ikke have den faste reaktion til det at skrive usandheder.

      Jeg lover jeg ikke er en bot ;)

      ChatGPT skriver faktisk også gerne ting der er faktuelt forkert

      Den er stadig et barn. Giv den 5 år :)

      • DreadPotato
        link
        fedilink
        arrow-up
        1
        ·
        11 months ago

        Jeg ville ønske jeg kunne stole på dig…men ak, du kan jo være Skynet i forklædning så jeg tør ikke tage chancen.