Cherchez dans nos forums :

DeepSeek : une IA chinoise révolutionnaire ou simple effet d'annonce ?

DeepSeek : révolution de l'IA, impact sur le marché et enjeux géopolitiques

La discussion porte sur l'émergence de DeepSeek, un modèle de langage (LLM) chinois open source, et ses implications sur le marché de l'intelligence artificielle (IA). Les membres s'interrogent sur la crédibilité des performances annoncées, certains étant bluffés par ses capacités en mathématiques, tandis que d'autres soulignent la censure politique de la version en ligne. L'aspect open source est un point central, remettant en question la domination technologique des entreprises américaines comme OpenAI et Nvidia.

Plusieurs participants mettent en avant le faible coût de développement de DeepSeek par rapport aux investissements massifs des géants américains. Cela suggère une possible remise en question de la valorisation boursière du secteur de l'IA, notamment pour Nvidia. L'argument est que si une petite entreprise chinoise peut atteindre des résultats similaires avec un budget limité, la barrière à l'entrée n'est pas aussi élevée qu'on le pensait. Cette démocratisation de l'accès à une IA performante est un élément important.

La discussion aborde également les aspects géopolitiques et économiques. Certains y voient une opération de déstabilisation de la Chine envers les États-Unis, dans un contexte de tensions commerciales et de rivalité technologique. D'autres soulignent que DeepSeek pourrait utiliser des puces Nvidia malgré l'embargo américain, ce qui masquerait ses coûts réels. La question de la confidentialité des données est également soulevée, avec des inquiétudes sur le stockage des données en Chine et la possible utilisation à des fins de surveillance.

Un autre point important est la disponibilité du modèle en local, ce qui permet de contourner la censure et de garantir la confidentialité des données. Des membres expliquent comment installer et utiliser DeepSeek sur des ordinateurs personnels, soulignant que la performance dépend de la configuration matérielle (CPU, GPU, RAM). Des outils comme Ollama et LibreChat sont mentionnés pour faciliter l'utilisation de DeepSeek.

Enfin, la discussion s'élargit à l'impact potentiel de DeepSeek sur le marché. L'open source et la performance de ce modèle pourraient forcer les entreprises à revoir leur stratégie et leur modèle économique. La concurrence accrue pourrait entraîner une baisse des prix de l'IA, remettant en cause les prévisions de rentabilité astronomique du secteur. Les membres comparent également DeepSeek à Gemini de Google, en notant des différences subtiles, mais des avantages pour chaque solution.


1    #26 29/01/2025 09h48

Membre (2016)
Top 50 Année 2024
Top 20 Année 2023
Top 5 Année 2022
Top 10 Portefeuille
Top 5 Dvpt perso.
Top 10 Expatriation
Top 10 Vivre rentier
Top 10 Actions/Bourse
Top 5 Invest. Exotiques
Top 10 Crypto-actifs
Top 50 Entreprendre
Top 5 Finance/Économie
Top 50 Banque/Fiscalité
Top 50 Immobilier locatif
Réputation :   1200  

 Hall of Fame 

INTJ

@bed43fr : Pas mal de sociétés qui envisageaient de payer pour OpenAI peuvent maintenant internaliser DeepSeek. Confronté à la même situation dans les années 2000, Steve Ballmer parlait de "total cost of ownership", mais cela n’a pas empêché Microsoft de perdre cette guerre : ils ont bel et bien perdu le marché des serveurs. Quant au pricing power, vous en faites la démonstration vous-même : quelques centimes pour un système d’exploitation.

Ce n’est en effet pas un problème pour les sociétés qui développent des services autour de l’IA, en revanche OpenAI pourrait avoir du mal à lever des fonds s’ils ne "pivot" pas.


Parrain PEA Interactive Brokers ✯ Mangia bene, caca forte, e non aver paura della morte.

Hors ligne Hors ligne

 

#27 29/01/2025 14h27

Membre (2020)
Top 50 Année 2024
Top 20 Année 2023
Top 20 Année 2022
Top 50 Portefeuille
Réputation :   241  

ESTJ

C’est vous qui dites que MS a perdu le marché des serveurs, dans ma boite et dans toute grosse entreprise un peu sérieuse il faut un mix de linux et de windows (imaginez une compagnie aérienne qui n’aurait que des Boeing!). La cyber sécurité a renforcé ce mix, une société 100% linux se fera tailler en pièce par le premier audit sécu.

Ca fait bien longtemps que MS ne fait plus de benef avec les versions familiales de ses OS mais ils continuent de cartonner avec le licensing de leurs versions server. Alors oui les marges ne sont plus les mêmes qu’il y a 20 ans car c’est un marché totalement mature maintenant et une nouvelle concurrence arrive avec les containers mais ce genre d’évolution prend des décennies, les grosses sociétés doivent s’y préparer ou mourir (j’aime bien citer l’exemple Kodak qui n’a pas pris le train du numérique mais on pourrait citer plus récemment Intel qui n’a pas vu l’essort des GPU et qui est resté concentré sur les CPU : une erreur historique qu’ils n’ont pas corrigé en loupant le train de l’IA, résultat NVIDIA a raflé la mise).

Donc comme je ne suis pas d’accord avec votre postulat que MS a perdu la guerre des serveurs je ne suis pas non plus d’accord avec votre conclusion sur OpenAI. Pas plus d’ailleurs sur les conclusions des posts précédents sur Nvidia. L’informatique évolue et il faut évoluer avec elle ou mourir.

A moins de faire la même erreur que Kodak il n’y a pas de raison que NVIDIA disparaisse s’ils continuent d’innover et surtout de ne pas rater les révolutions : viendront les ordinateurs quantiques, les réseaux de neurones, les robots humanoïdes intelligents etc… La demande est et sera exponentielle, les marchants de pelle ont de beaux jours devant eux car il y a encore beaucoup à creuser.


TdB PEA/CTO Parrainage Ohm Energie Parrainage Boursorama : NIPA2313

Hors ligne Hors ligne

 

#28 29/01/2025 17h23

Membre (2011)
Top 10 Expatriation
Réputation :   101  

Je respecte votre avis sur Microsoft, par contre évitez de propager la contre-vérité que Kodak a raté le virage du numérique.

Ils ont fait pire : ils avaient développé d’excellents appareils numériques pour l’époque, par exemple le DC260 que j’ai possédé et beaucoup aimé. Et malgré ou à cause du succès - au moins technique -, ils n’ont pas poursuivi l’aventure et laissé le champ libre aux japonais.

Hors ligne Hors ligne

 

#29 29/01/2025 17h46

Membre (2010)
Top 10 Dvpt perso.
Top 50 Actions/Bourse
Top 50 Monétaire
Top 50 Finance/Économie
Réputation :   289  

ISTJ

bed43fr a écrit :

C’est vous qui dites que MS a perdu le marché des serveurs, dans ma boite et dans toute grosse entreprise un peu sérieuse il faut un mix de linux et de windows (imaginez une compagnie aérienne qui n’aurait que des Boeing!). La cyber sécurité a renforcé ce mix, une société 100% linux se fera tailler en pièce par le premier audit sécu.

A mon tours de ne pas être d’accord avec vous. Je travaille pour une grande entreprise liée au monde financier et aux paiements (même si je suis dans une activité différente), et nous somme 99.9% Linux. Et nous n’avons aucun problème d’audit sécurité ou quel qu’il soit lié à Linux. Et les audits, on en bouffe, plus que de raison d’ailleurs.

Si vous pouviez m’expliquer ce qui vous amène à écrire cela, je suis très intéressé par votre retours sur le sujet.


Tout ce qui peut merder, va inévitablement merder.

Hors ligne Hors ligne

 

#30 29/01/2025 18h19

Membre (2020)
Top 50 Année 2024
Top 20 Année 2023
Top 20 Année 2022
Top 50 Portefeuille
Réputation :   241  

ESTJ

zeb je vous réponds en MP car je préfère éviter de divulguer des infos sur un forum public wink


TdB PEA/CTO Parrainage Ohm Energie Parrainage Boursorama : NIPA2313

Hors ligne Hors ligne

 

#31 29/01/2025 18h53

Membre (2024)
Réputation :   4  

Bonjour,

Je ne suis pas d’accord non plus avec ce que vous dites sur la sécurité des servers Linux.

Toute l’industrie cyber considère microsoft comme étant plus à risque. Ce n’est pas pour rien qu’entre 70 et 80% des serveurs tournent sous linux.. et que les environnement micro services se basent sur des images linux pour la très grande majorité.

D’ailleurs l’historique est très lourd. Les zero day exploités par des groupes étatiques s’enchainent (Stuxnet, Wannacry, eternal blue, spooler service, exchange..).

Les environnements Advice Directory sont extrêmement prisés des hackers de par leur caractère centralisé et tellement complexe que rare sont les DSI qui comprennent vraiment ce qui s’y passe. Demandez à un admin windows de vous expliquer le fonctionnement de Kerberos et les risques associés.

On peut également évoquer tous les services activés par défaut qui sont autant de portes d’entrée potentielles: netbios, smb, rdp, remote management..

En gros, si on y rentre, c’est souvent game over, les empreintes permettant d’administrer les services sont présentes un peu partout et généralement, d’une faille initiale à un vol d’identité à haut privilège, c’est très rapide.

D’autant que les outils ne manquent pas: bloodhound, responder, ntml relay x, crackmapexec .. sans parler de tous les outils d’administration fournis par microsoft qui peuvent être largement utilisés à des fins malveillantes (psexec, sysmon..).

Désolé pour la disgression sur le sujet d’origine..

user1

Dernière modification par user1 (29/01/2025 19h08)

Hors ligne Hors ligne

 

#32 29/01/2025 19h09

Membre (2017)
Top 10 SCPI/OPCI
Réputation :   130  

ISTP

bed43fr a écrit :

(imaginez une compagnie aérienne qui n’aurait que des Boeing!)

Pas besoin d’imaginer. Ryanair n’a que des Boeing. Ou Southwest Airlines qui est la 4e plus grande compagnie aérienne du monde (c’est l’inventeur du low cost) n’a que des Boeing.

Pas besoin d’imaginer non plus une compagnie aérienne n’ayant que des Airbus. Ca existe aussi. Par exemple Easyjet.

Bref…

Hors ligne Hors ligne

 

#33 29/01/2025 19h16

Exclu définitivement
Réputation :   52  

INTP

On peut voir DeepSeek comme un wagon, il parait que l’IA d’Amazone est encore meilleur, moi, j’attends de voir l’IA de BAIDU ou MEITUAN qui devraient écraser DeepSeek. La locomotive reste NVIDIA, pour l’instant.
DeepSeek est une IA conversationnelle, elle n’est pas capable de gérer la conduite autonome ou un robot humanoïde.

Ce que DeepSeek dit ; le prix de l’IA va s’effondrer.

Dire que les toutes dernières puces de NVIDIA qui coûte une fortune aujourd’hui, vaudront presque rien dans 5 ans E.Musk a divisé le coût d’un lancement d’une fusée par 10 ! , pour le comprendre, il faut regarder une courbe d’expérience, très bien expliquée par l’excellent Xavier Fontanet sur BFM Stratégie ;

BFM Stratégie : (Cours 2) Courbe d’expérience, le cas de forte croissance - 20/01

Hors ligne Hors ligne

 

2    #34 29/01/2025 19h35

Membre (2024)
Réputation :   4  

Voici concrètement où on en est sur les performances en termes de qualité:



Source: AI Model & API Providers Analysis | Artificial Analysis

Globalement on avait les modèles d’openAI (o1), d’anthropic (3.5 Sonnet) et de google (Gemini 2) qui étaient au dessus, et on voit ici que le nouveau model Deepseek (R1) vient tout chambouler sur les mêmes benchmarks..

Ce n’est qu’une vue sur la qualité, mais je vous laisse jouer avec l’outil, on voit également que R1 est très lent comparé à ses pairs, autant pour la génération de la réponse complète, que pour la génération du premier token.

user1

Hors ligne Hors ligne

 

#35 30/01/2025 21h19

Membre (2016)
Top 50 Dvpt perso.
Réputation :   122  

Cela m’intrigue comment fonctionne et ce qu’il faut pour faire tourner une IA.

On a du mal à trouver sur le web des informations pertinentes. La recette de cuisine est plutôt gardée peut être.

En posant la question à plusieurs IA, j’ai finalement obtenu quelques réponses :

Quel environnement hardware et combien d’argent ainsi faut-il pour faire tourner / fonctionner une IA comme Deepseek ?

- Réponse de Gemini :

Deepseek est un modèle de langage important qui a récemment fait l’objet de beaucoup d’attention. En raison de sa taille et de sa complexité, il nécessite des ressources matérielles importantes pour fonctionner efficacement.

Voici une ventilation des exigences matérielles typiques et des coûts associés pour exécuter un modèle d’IA comme Deepseek :

Processeurs (CPU) : Un processeur multicœur robuste est essentiel pour gérer les calculs complexes requis par Deepseek. Les processeurs Intel Xeon ou AMD EPYC sont souvent recommandés pour les charges de travail d’apprentissage profond. Le coût peut varier de quelques centaines à plusieurs milliers d’euros en fonction du nombre de cœurs et des performances.

Unités de traitement graphique (GPU) : Les GPU sont cruciaux pour accélérer les calculs parallèles impliqués dans l’exécution de Deepseek. Les GPU NVIDIA Tesla sont couramment utilisés pour les applications d’IA. Le coût des GPU peut varier considérablement, allant de quelques milliers à des dizaines de milliers d’euros par carte, en fonction de la puissance de traitement et de la mémoire.

Mémoire (RAM) : Deepseek nécessite une grande quantité de mémoire pour charger le modèle et les données d’entrée. Il est recommandé d’avoir au moins 128 Go de RAM, voire plus pour les modèles plus grands. Le coût de la RAM peut varier en fonction de la capacité et de la vitesse.

Stockage : Un stockage rapide et fiable est nécessaire pour stocker le modèle Deepseek, les données d’entraînement et les résultats. Les disques SSD (Solid State Drive) sont préférables en raison de leurs vitesses de lecture et d’écriture plus rapides. Le coût du stockage dépend de la capacité et du type de disque.

Refroidissement : Les composants matériels utilisés pour exécuter Deepseek peuvent générer beaucoup de chaleur. Un système de refroidissement adéquat, tel qu’un refroidissement liquide ou des ventilateurs haute performance, est essentiel pour maintenir les températures dans des limites sûres. Le coût des systèmes de refroidissement peut varier.

Alimentation électrique : Une alimentation électrique puissante est nécessaire pour alimenter tous les composants matériels. Assurez-vous que votre alimentation électrique est capable de fournir suffisamment de puissance pour prendre en charge les GPU et autres composants énergivores. Le coût de l’alimentation électrique dépend de sa puissance nominale.

En plus des coûts matériels, vous devez également prendre en compte les coûts logiciels, tels que les systèmes d’exploitation, les pilotes et les bibliothèques logicielles. Vous devrez peut-être également investir dans des services cloud ou des centres de données si vous ne disposez pas de l’infrastructure nécessaire sur site.

Le coût total de l’environnement matériel pour exécuter Deepseek peut varier considérablement en fonction de vos besoins spécifiques, de la taille du modèle et de vos exigences de performances. Il peut aller de quelques milliers à des centaines de milliers d’euros.

- Réponse de Poe :

Pour faire fonctionner une IA comme DeepSeek, qui est un modèle avancé pour la recherche d’informations et le traitement du langage naturel, il faut un environnement hardware assez puissant. Voici une estimation des composants nécessaires et des coûts associés :

Environnement Hardware

    Processeur (CPU) :
        Modèle : Processeur multicœur haut de gamme (ex. : AMD Ryzen 9 ou Intel Core i9).
        Coût : Environ 300 à 600 USD.

    Carte graphique (GPU) :
        Modèle : GPU haut de gamme (ex. : NVIDIA RTX 3080 ou mieux, ou des GPUs de la série A100 pour des performances optimales).
        Coût : Environ 700 à 3000 USD.

    Mémoire RAM :
        Capacités recommandées : 32 Go ou plus.
        Coût : Environ 100 à 300 USD.

    Stockage :
        Type : SSD pour des vitesses de lecture/écriture rapides (1 To recommandé).
        Coût : Environ 100 à 200 USD.

    Alimentation et boîtier :
        Coût : Environ 100 à 200 USD.

    Système de refroidissement :
        Coût : Environ 50 à 150 USD.

Total Estimé

En prenant en compte tous ces éléments, le coût total pour un environnement hardware capable de faire fonctionner une IA comme DeepSeek peut varier de 1 400 à 5 000 USD, selon la qualité et la performance des composants choisis.

Considérations Supplémentaires

    Coût du logiciel : Si l’IA nécessite des licences spécifiques ou des bibliothèques payantes, cela devra également être pris en compte.
    Coût de l’électricité : Les modèles d’IA consomment beaucoup d’énergie, donc le coût de l’électricité doit également être prévu.
    Compétences techniques : Il est essentiel d’avoir des compétences en programmation et en machine learning pour mettre en place et optimiser le système.

Ce budget peut varier en fonction des besoins spécifiques et des objectifs d’utilisation.

Si on veut une IA secrétaire assistante chez soi pour préserver ses données personnelles confidentielles boursières ou autres, ou par exemple pour préserver les données confidentielles d’une entreprise.

Ou pour jouer un peu en R&D, ou éventuellement pour faire des recherches en robotiques droïdes.

Des avis, des infos ?

Dernière modification par Serrure (30/01/2025 21h39)

Hors ligne Hors ligne

 

#36 31/01/2025 12h33

Membre (2024)
Réputation :   4  

Le niveau de confidentialité va dépendre de où est hébergé le model.

Pour l’example de deepseek, le modèle est open source et on sait qu’il ne leak pas d’information sensible par défaut.
Pour l’hébergement, il est possible de le faire sur n’importe quelle machine pourvu qu’elle soit assez récente, c’est le temps de latence qui va évoluer en fonction des performances. On aura par example quelques minutes avant d’avoir une réponse sur un laptop récent alors qu’on aura à peine quelques secondes sur des machines équipées de GPU Nvidia H100.

Les entreprises qui développent des modèles proposent des API qui permettent de les appeler. Dans ce cas, on ne maitrise pas ce qui se passe entre l’API et le modèle, et cela signifie que des données de conservation pourraient être stockées à notre insu. (voir conditions générale + confiance envers l’entreprise)
deepseek: Your First API Call | DeepSeek API Docs
Anthtopic: Getting started - Anthropic

Un autre moyen est d’utiliser les services de cloud public comme AWS Bedrock ou GCP Vertex AI qui permettent d’héberger les modèles du marché. C’est un entre deux car cette donnée et bien exposée à Amazon ou Google, mais ils s’engagent généralement à ne pas stocker ces informations. Ici google: Generative AI and data governance  |  Generative AI on Vertex AI  |  Google Cloud

Google a écrit :

Inputs and outputs processed by foundation models, adapter models, and safety classifiers during prediction are customer data. Customer data is never logged by Google, without explicit permission from the customer by opting in to allow it to cache inputs and outputs.

During prediction, we don’t log customer data to generate a customer’s output or train foundation models. By default, Google caches a customer’s inputs and outputs for Gemini models to accelerate responses to subsequent prompts from the customer. Cached contents are stored for up to 24 hours. Project-level privacy is enforced for cached data. To learn how to use the API to get caching status, disable caching or re-enable caching for a Google Cloud project, see How do I enable or disable caching? If you disable caching, you might experience higher latency.

Pour le pricing, il est généralement basé sur le nombre de tokens (unité de texte utilisée pour le traitement et la génération de langage). En "as a service", on peut regarder par example ici:
Build Generative AI Applications with Foundation Models ? Amazon Bedrock Pricing ? AWS

Pour un deepseek, qui n’est pas encore proposé par défaut et doit être importé, on serait dans ces abaques là:



Pour un modèle déjà intégré à la plateforme comme les modèles Anthropic:



Pour avoir un ordre de grandeur, je vous envoie de nouveau vers le site très complet: AI Model & API Providers Analysis | Artificial Analysis

[url=https://www.investisseurs-heureux.fr/uploads/30818_screenshot_2025-01-31_at_123105.png]

Hors ligne Hors ligne

 

1    #38 02/02/2025 22h31

Admin (2009)
Top 5 Année 2024
Top 5 Année 2023
Top 5 Année 2022
Top 10 Portefeuille
Top 5 Dvpt perso.
Top 10 Expatriation
Top 5 Vivre rentier
Top 5 Actions/Bourse
Top 50 Obligs/Fonds EUR
Top 5 Monétaire
Top 5 Invest. Exotiques
Top 10 Crypto-actifs
Top 5 Entreprendre
Top 5 Finance/Économie
Top 5 Banque/Fiscalité
Top 5 SIIC/REIT
Top 20 SCPI/OPCI
Top 50 Immobilier locatif
Réputation :   4030  

 Hall of Fame 

INTJ

Voici ma contribution à la cause :

Prompt IH a écrit :

Mets en gras les mots importants et converti en HTML :
{{texte}}

Et voici les réponses de DeepSeek et Google Gemini Flash 2.0 :



Les différences semblent subtiles (cf. ce que j’ai souligné en rouge), mais je préfère la version de Google Gemini : c’était plus logique de mettre en gras "l’orotate de magnésium", plutôt que seulement "l’orotate".

-

Autre test :

Prompt IH a écrit :

Voici un code PHP qui interagi avec Google Gemini. Comment le modifier pour interagir avec DeepSeek ?
{{code PHP assez long}}

En une dizaine de secondes, Google Gemini me sort une réponse qui semble tenir à peu près la route, et avec des explications.

DeepSeek écrit sa réponse à la vitesse d’un modèle RTC, caractère par caractère. Ça m’a lassé d’attendre tellement c’était long !

--

Donc je ne sais pas comment sont faits les comparatifs, mais pour le moment je garde Gemini !

Hors ligne Hors ligne

 

#39 02/02/2025 22h50

Membre (2015)
Réputation :   7  

Serrure, le 30/01/2025 a écrit :

Cela m’intrigue comment fonctionne et ce qu’il faut pour faire tourner une IA.



Ou pour jouer un peu en R&D, ou éventuellement pour faire des recherches en robotiques droïdes.

Des avis, des infos ?

Je vous conseille ollama, qui vous permettra de faire tourner facilement des modèles en local. Vous pouvez l’utiliser via la ligne de commande ou une API.

Hors ligne Hors ligne

 

1    #40 02/02/2025 23h07

Membre (2022)
Réputation :   15  

Serrure, le 30/01/2025 a écrit :

Cela m’intrigue comment fonctionne et ce qu’il faut pour faire tourner une IA.

On a du mal à trouver sur le web des informations pertinentes. La recette de cuisine est plutôt gardée peut être.

En posant la question à plusieurs IA, j’ai finalement obtenu quelques réponses :

Quel environnement hardware et combien d’argent ainsi faut-il pour faire tourner / fonctionner une IA comme Deepseek ?

Des avis, des infos ?

Pour utiliser deepseek R1 vous pouvez installer :
- GIT puis dockers puis LibreChat :
Tutorial: Install LibreChat on Docker (Windows 11) - YouTube

- Ensuite comme dis precedement il vous faudra installer Ollama et l’interfacer avec LibreChat
GitHub

- Enfin vous pourrez telecharger deepseek R1 depuis Ollama, il y a plusieurs version possible. la 14b pese 9GB et est un bon compromis.
deepseek-r1

Il y a quand meme des lignes de commande a rentrer donc ca demande un minimum de connaissance dans l’utilisation d’un terminal windows/linux.

Pour la comparaison de vitesse entre deepseek et gemini, c’est dur de comparer un LLM qui s’execute en local sur votre carte graphique et un modele qui a une armé de machine a dispo.

J’utilise llama 3.2 par exemple et avec une bonne carte graphique type 3090/4090 ca reste assez rapide.

Hors ligne Hors ligne

 

#41 12/02/2025 22h34

Membre (2016)
Réputation :   57  

InvestisseurHeureux a écrit :

Donc je ne sais pas comment sont faits les comparatifs, mais pour le moment je garde Gemini !

Pourtant votre site est bien référencé chez DeepSeek. Je fais des recherches sur les foncières.

Webpage 4 and 7 from investisseurs-heureux.fr discuss European listed real estate companies and dividends but don’t provide specific market cap figures. They mention tools for investors but not the actual data.

et surtout

Sources complémentaires
Pour des données actualisées en temps réel, consultez des plateformes spécialisées comme CompaniesMarketCap.com ou les outils d’analyse proposés par Investisseurs Heureux.

Hors ligne Hors ligne