Imaginez que vous vous asseyez avec un modèle d’IA pour un entretien oral de deux heures. Une voix amicale vous guide tout au long d’une conversation qui porte sur votre enfance, vos souvenirs de formation, votre carrière et vos idées sur la politique d’immigration. Peu de temps après, une réplique virtuelle de vous est capable d’incarner vos valeurs et vos préférences avec une précision étonnante.

C’est désormais possible, selon un nouvel article d’une équipe comprenant des chercheurs de Stanford et de Google DeepMind, qui a été publié sur arXiv et n’a pas encore fait l’objet d’un examen par les pairs.

Dirigée par Joon Sung Park, doctorant en informatique à Stanford, l’équipe a recruté 1 000 personnes de différents âges, sexes, races, régions, niveaux d’éducation et idéologies politiques. Ces personnes ont été payées jusqu’à 100 dollars pour leur participation. À partir des entretiens menés avec ces personnes, l’équipe a créé des agents reproduisant ces individus. Pour déterminer dans quelle mesure les agents imitaient leurs homologues humains, les participants ont effectué une série de tests de personnalité, d’enquêtes sociales et de jeux de logique, deux fois chacun, à deux semaines d’intervalle ; puis les agents ont effectué les mêmes exercices. Les résultats ont été similaires à 85 %.

  • leftascenter@jlai.luOP
    link
    fedilink
    Français
    arrow-up
    1
    ·
    1 month ago

    L’article va plus loin, je vous laisse le lire / traduire.

    Mais c’est le début de la flip quand même.

    • keepthepace@slrpnk.net
      link
      fedilink
      Français
      arrow-up
      1
      ·
      edit-2
      1 month ago

      Perso je trouve ça super intéressant pour des applications en démocratie participative: si t’as un agent qui connaît bien tes préférences, ça devient possible de fournir un vote pour tous les textes débattus à l’assemblée voire de t’alerter quand quelque chose peut t’intéresser particulièrement.

      Il faut bien sur que le modèle t’appartienne et ne dépende pas du bon vouloir d’une boite américaine, mais en modèle local, avoir un agent-lobbyiste qui participe au débat démocratique, ça me gêne pas, ça serait un gros progrès je trouve.

      • leftascenter@jlai.luOP
        link
        fedilink
        Français
        arrow-up
        1
        ·
        edit-2
        1 month ago

        je suis pas optimiste.

        Si c’est possible ça sera d’abord utilisé pour le lobbying par des grosses boites, et je trouve qu’associes a des avatars deepfakes, ça donne un pouvoir de communication institutionelle flippant. Dans le meilleur des cas tu n’as que Ronald qui explique en personne la com externe de mc do.

        Ça peut aussi faire des sectes intéressantes.

        Pis ça résonne avec le livre “Bug Jack Baron” / “Jack Baron Et l’éternité”

        https://fr.wikipedia.org/wiki/Jack_Barron_et_l'Éternité

        https://arxiv.org/abs/2410.20746

        • keepthepace@slrpnk.net
          link
          fedilink
          Français
          arrow-up
          1
          ·
          1 month ago

          Les choses que j’espère n’arriveront pas toutes seules, elles sont vachement moins rentables, mais si on arrive à au moins en rêver et à l’espérer, ça a plus de chance d’arriver.

  • Kuinox@lemmy.world
    link
    fedilink
    Français
    arrow-up
    1
    ·
    edit-2
    1 month ago

    Such simulation agents are slightly different from the agents that are dominating the work of leading AI companies today. Called tool-based agents, those are models built to do things for you, not converse with you.

    Mais ca n’a rien a voir ?!? Les tool-based agents c’est autre chose.
    C’est du bullshit journalistique, les buts des chercheurs n’as jamais été de “repliquer la personalité”.
    Je cite le papier:

    We present a novel agent architecture that simulates the attitudes and behaviors of 1,052 real individuals
    The generative agents replicate participants’ responses on the General Social Survey 85% as accurately as participants replicate their own answers two weeks later, and perform comparably in predicting personality traits and outcomes in experimental replications.

    85% c’est extrement mauvais, surtout pour une tache de mémorisation ici.
    Le but des chercheurs c’est de faire un simulateur médiocre d’humain pour tester des mesures politiques et mesurer l’impact. On est a des années lumière de vouloir dupliquer une personalité

    • leftascenter@jlai.luOP
      link
      fedilink
      Français
      arrow-up
      1
      ·
      1 month ago

      On est a des années lumière de vouloir dupliquer une personalité

      Y’a déjà un marché attaqué pour ça avec les morts.

      Le but des chercheurs c’est de faire un simulateur médiocre d’humain

      On est loin du médiocre mais c’est leur but oui

      tester des mesures politiques et mesurer l’impact

      https://arxiv.org/abs/2410.20746

      Pas encore eu le temps de lire plus que le résumé, je m’y attelle ce soir.