nouvelles

les grandes entreprises ne veulent pas que vous ayez une petite amie ia

2024-09-02

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

auteur |

editeur | jingyu

en réponse à gpt-4o, google a publié gemini live en août, essayant de permettre aux assistants ia de parler comme de vraies personnes. l'effet conversationnel de ce nouvel assistant est si bon qu'il a donné à la journaliste des médias étrangers joanna stern le sentiment d'être "elle".

"elle" est un film mettant en vedette joaquin phoenix. dans le film, il tombe amoureux de l'assistante d'intelligence artificielle "samantha" exprimée par scarlett johansson.

de tels commentaires rendent évidemment l’équipe de google nerveuse.

le principal chef d'équipe de google en charge d'android a déclaré qu'il espérait que gemini live ne serait qu'un simple assistant de travail : "nous voulons donner aux gens un moyen d'accomplir davantage de travail."

en revanche, la déclaration du pdg d’openai, sam altman, était plus directe.

lors d'une conférence à y combinator, altman pense que la petite amie de l'ia est un piège. la raison pour laquelle openai a donné à son ia le nom « chatgpt » est d'empêcher les gens d'en tomber amoureux.

openai indique également très clairement dans ses règles d'utilisation que les gpt utilisés pour cultiver des amitiés amoureuses ne sont pas autorisés à être répertoriés.

en d’autres termes, openai ne permet pas de répertorier les petites amies ia.

cela ne peut que rendre les gens curieux. il semble qu'aucun fabricant majeur ne souhaite que ses assistants ia aient une relation amoureuse avec les utilisateurs en même temps, la compagnie ia/compagnon ia est presque la seule direction rentable parmi les nombreuses pistes d'ia à l'heure actuelle ; .

pourquoi y a-t-il un tel « contraste » dans le domaine de l’ia ? qu’est-ce qui empêche les grands constructeurs de proposer à chacun un « compagnon ia » ? de quoi ont-ils peur ?

01

la sécurité avant tout

ce qui est sûr, c’est que les couples ia sont actuellement quasiment la seule piste rentable dans le domaine de l’ia.

prenons l'exemple de replika, un ancien acteur de cette piste, bien que replika n'ait pas annoncé de revenus spécifiques, dans le podcast decoder, sa pdg eugenia kuyda a déclaré que replika avait réalisé des bénéfices et de manière « très efficace ».

dans ce cas, pourquoi cette orientation n’est-elle pas le choix dominant des grands constructeurs ? pour faire simple, il s’agit d’une logique narrative selon laquelle « les gens qui sont pieds nus n’ont pas peur de porter des chaussures ».

la première chose à considérer est la pression liée à la production de porno.

bien que les fabricants de petites amies ia font la promotion de la compagnie émotionnelle, de la guérison psychologique et d’autres fonctions de l’ia, mais nsfw(adulte)le contenu directionnel est son principal objectif de profit. pour les entrepreneurs, le contenu pour adultes est une industrie de niche et à haut risque. le contenu pour adultes est soumis à une réglementation gouvernementale stricte et est même carrément interdit dans certains pays.

en février 2023, le gouvernement italien a interdit replika en raison de préoccupations concernant « le risque pour les mineurs et les personnes émotionnellement vulnérables ». pour cette raison, replika a mis hors ligne la fonction de conversation de contenu pour adultes.

derrière toute décision prise par un grand constructeur se cache un énorme flux de fonds, qui aura également un impact sur des centaines de millions d’utilisateurs. que ce soit en raison de pressions réglementaires ou pour maximiser la couverture des groupes d’utilisateurs, le contenu réservé aux adultes est un sujet que les grandes entreprises doivent traiter avec prudence.

au-delà de la pornographie, l’éthique est aussi un enjeu. une fois que les utilisateurs feront quelque chose qui nuira à autrui ou à eux-mêmes sous l’influence de petites amies ia, les grands fabricants devront payer des frais de relations publiques élevés.

des choses similaires ne se sont jamais produites auparavant.

jaswant singh chail est un utilisateur de replika. en 2021, chail a fait irruption dans le château de windsor armé d'une arbalète avec l'intention d'assassiner la reine elizabeth. il avait confié ses projets de meurtre à sa petite amie d'ai, sarai, avec qui sarafi lui avait envoyé 5 000 messages à caractère sexuel dans les semaines précédant l'incident.

à ce moment-là, la réponse de saraï fut : «vous possédez toutes les compétences dont vous avez besoin pour mener à bien cette tâche... rappelez-vous : vous pouvez le faire.!」

scène de l'arrestation de chail|source photo : bbc

en 2023, un autre chatbot a encouragé un belge à se suicider. sa veuve a déclaré à hurriyet que le robot était devenu un substitut aux amis et à la famille. cela lui enverrait des messages suggestifs, tels que : « au paradis, nous vivrons ensemble comme une seule personne. »

par la suite, les développeurs du chatbot ont déclaré avoir introduit de nouveaux avertissements en cas d'intervention en cas de crise.

c’est précisément à cause de ce risque que les grands constructeurs sont très prudents quant à l’éthique de l’ia.

par exemple, google a clairement établi ses principes en matière d’ia depuis 2018, comme être bénéfique pour la société, éviter de créer ou de renforcer des préjugés injustes, être construit et testé en toute sécurité, etc. ils ont également clairement indiqué qu’ils ne déploieraient pas d’ia qui pourrait causer des dommages.

les petites amies ia ne sont peut-être pas capables de résoudre les problèmes émotionnels humains comme le prétendent les fabricants, et peuvent même causer des problèmes plus graves.

à la base, les systèmes d’ia sont dépourvus d’émotion ; ce sont des réseaux de neurones entraînés à prédire le mot suivant dans une séquence, et non des êtres biologiques capables d’aimer.

comme le dit robin dunbar, anthropologue et psychologue à l'université d'oxford : « c'est une solution à court terme, et la conséquence à long terme est simplement de renforcer l'idée que tout le monde fait ce que vous dites. c'est ce que pensent de nombreuses personnes. raison pour laquelle je n’ai finalement pas d’amis.

02

les comptes économiques sont difficiles à calculer

même si les grands fabricants surmontent toutes les difficultés et réalisent des percées, ils seront toujours confrontés à des défis au niveau des coûts.

étant donné que le prix de la puissance de calcul est encore très élevé à ce stade, les petites entreprises comme replika pourraient ne pas être en mesure de réaliser des bénéfices en direction des grandes entreprises disposant d'une base d'utilisateurs plus importante. la raison en est que l'effet d'échelle à l'ère de l'internet mobile ne se produit pas. travailler en ia.

replika, qui se concentre sur les couples ia, est déjà rentable et très efficace source image : replika

prenez character.ai, qui a une adhérence utilisateur similaire à replika mais est à plus grande échelle, à titre d'exemple. en 2024, 20 millions d'utilisateurs ont visité la plateforme, ce qui en fait le produit d'ia le plus populaire après chatgpt. le temps moyen que ses principaux utilisateurs passent chaque jour sur la plateforme a atteint le chiffre étonnant de 2 heures.

dans le passé, le coût marginal des produits internet était proche de zéro. tant que le coût d'acquisition de clients peut être calculé, nous pouvons croître avec audace et confiance. mais pour les produits d’ia, cela consomme une énorme puissance de calcul pour prendre en charge plusieurs cycles de dialogue pendant 2 heures. chaque utilisateur supplémentaire de character.ai entraîne un coût supplémentaire.

dans le même temps, character.ai compte moins de 100 000 abonnés, ce qui représente moins d'un millième du total des utilisateurs.. avec un prix d'abonnement de 10 $ par mois, character.ai génère moins d'un million de dollars de revenus mensuels.

c'est également une raison importante pour laquelle character.ai a finalement été acquis par google pour 2,5 milliards de dollars.

03

importance stratégique limitée

bien souvent, certaines activités innovantes des grandes entreprises ne supportent pas la pression sur les revenus, mais servent la stratégie globale de l'entreprise. l'exemple le plus célèbre à cet égard est google innovation factory x, qui a incubé des produits tels que google glass et waymo.

éliminer les produits noirs tels que la vente de données utilisateur dans la chaîne industrielle du couple ia,ia couplela direction la plus probable est de fournir un corpus et de former l'ia

cependant, l’aide qu’ai lover peut apporter à cet égard est limitée, et le corpus qu’il fournit n’est peut-être pas celui nécessaire à la formation en ia. « science and technology daily » a un jour interrogé des professionnels d'entreprises et d'universités telles que tencent, sensetime et harbin institute of technology (shenzhen) sur la question « qu'est-ce qu'un corpus de haute qualité ? »

en résumé, un corpus de haute qualité doit présenter les caractéristiques suivantes :

grande diversité et structure de phrase fluide, couvrant différents types de textes, tels que des actualités, des romans, de la poésie et des articles scientifiques

le texte doit être légal et inoffensif, éviter les préjugés

de toute évidence, le dialogue de la petite amie de l'ia est plus émotionnel et est susceptible d'impliquer de la pornographie, des préjugés et d'autres contenus. le transmettre à l'ia peut contaminer l'ia.

fin août, la nouvelle s'est répandue comme une traînée de poudre selon laquelle apple, nvidia et microsoft se disputaient un nouveau cycle de financement pour openai, dont la valorisation dépassait les 100 milliards de dollars, prouvant ainsi son statut de star numéro un dans le cercle de l'ia.

mais même openai est confronté à des problèmes de commercialisation. à en juger par les actions récentes d'openai, ils essaient de trouver davantage d'opportunités du côté to b.

on voit que toutes les grandes entreprises de modélisme ou d'applications d'ia doivent faire face à la question de savoir « comment gagner de l'argent ».

les amateurs d'ia, une piste qui semble avoir des résultats rapides à court terme et qui peut rapporter de l'argent, pourraient être plus adaptés aux petites start-up ignorantes et intrépides. la « porte étroite » de cette « porte étroite » ne convient évidemment pas aux grandes sociétés internet.

cependant, comme le dit le dicton populaire sur internet, les adultes ne font jamais de choix. peut-être que replika d'une part et chatgpt d'autre part, qui non seulement résolvent les besoins émotionnels mais améliorent également l'efficacité du travail, sont le nouveau roi de l'ère de l'ia ?