Rejoignez-Nous sur

Apprivoiser la queue: aventures dans l'amélioration de l'économie de l'IA

Screen Shot 2020 08 11 at 4.58.15 PM

News

Apprivoiser la queue: aventures dans l'amélioration de l'économie de l'IA

L'IA a un énorme potentiel pour perturber les marchés qui étaient traditionnellement hors de portée des logiciels. Ces marchés – qui ont compté sur les humains pour naviguer dans le langage naturel, les images et l'espace physique – représentent une énorme opportunité, pouvant valoir des milliards de dollars dans le monde.

Cependant, comme nous en avons discuté dans notre article précédent La nouvelle activité de l'IA, créer des entreprises d'IA qui ont les mêmes propriétés économiques attrayantes que les logiciels traditionnels peut être un défi. Les entreprises d'IA ont souvent des marges brutes plus faibles, peuvent être plus difficiles à mettre à l'échelle et n'ont pas toujours de solides douves défensives. D'après notre expérience, bon nombre de ces défis semblent être endémiques à l’espace des problèmes, et nous n’avons pas encore découvert un manuel simple qui garantit l’économie logicielle traditionnelle dans tous les cas.

Cela dit, de nombreux constructeurs d'entreprises d'IA expérimentés ont fait d'énormes progrès dans l'amélioration des profils financiers de leurs entreprises par rapport à une approche naïve. Pour ce faire, ils utilisent une gamme de méthodes couvrant l'ingénierie des données, le développement de modèles, les opérations cloud, la conception organisationnelle, la gestion des produits et de nombreux autres domaines. Le fil conducteur qui les guide souvent est une compréhension profonde et pratique du problème à résoudre.

Ainsi, alors que notre article précédent décrivait les défis auxquels sont confrontées les entreprises d'IA, l'objectif de cet article est de fournir des conseils sur la façon de les relever. Nous partageons certaines des leçons, les meilleures pratiques et les secrets gagnés que nous avons appris lors de conversations formelles et informelles avec des dizaines d'équipes de pointe en apprentissage automatique. Pour la plupart, ce sont leurs paroles – pas les nôtres. Dans la première partie, nous expliquerons pourquoi la compréhension des problèmes est si importante – en particulier en présence de distributions de données à longue traîne – et la lierons aux défis économiques soulevés dans notre dernier article. Dans la deuxième partie, nous partagerons quelques stratégies qui peuvent aider les équipes de ML à créer des applications plus performantes et des entreprises d'IA plus rentables.

Nous sommes extrêmement optimistes quant au potentiel commercial de l'IA et continuons d'investir massivement dans ce domaine. Nous espérons que ce travail continuera à susciter des discussions et à soutenir les fondateurs dans la création d'entreprises d'IA durables.

Remarque: cet article se concentre sur les entreprises et les produits d'IA qui s'appuient sur l'apprentissage automatique – principalement l'apprentissage supervisé – pour fournir une partie importante de leurs fonctionnalités de base, et non sur les outils / infrastructures de ML ou les logiciels traditionnels qui incluent des fonctionnalités supplémentaires de ML.

Partie I: Comprendre le problème à résoudre

Construire vs expérimenter (ou, logiciel vs IA)

Comme l'a dit le directeur technique d'une start-up de données à un stade avancé, le développement de l'IA se sent souvent «plus proche de la découverte de molécules dans le secteur pharmaceutique» * que du génie logiciel.

En effet, le développement de l'IA est un processus de expérimenter, un peu comme la chimie ou la physique. Le travail d'un développeur d'IA consiste à adapter un modèle statistique à un ensemble de données, à tester les performances du modèle sur de nouvelles données et à répéter. Il s'agit essentiellement d'une tentative de régner dans la complexité du monde réel.

Le développement logiciel, quant à lui, est un processus de construction et d'ingénierie. Une fois que la spécification et l'architecture globale d'une application ont été définies, de nouvelles fonctionnalités et fonctionnalités peuvent être ajoutées de manière incrémentielle – une ligne de code, une bibliothèque ou un appel d'API à la fois – jusqu'à ce que la vision complète prenne forme. Ce processus est largement sous le contrôle du développeur, et la complexité du système résultant peut souvent être maîtrisée en utilisant des pratiques informatiques standard, telles que la modularisation, l'instrumentation, la virtualisation ou le choix des bonnes abstractions.

Contrairement au génie logiciel, très peu de choses sont contrôlées par le développeur avec les applications d'IA – la complexité du système est inhérente aux données d'entraînement elles-mêmes. Et pour de nombreux systèmes naturels, les données sont souvent désordonnées, lourdes, imprévisibles et très entropiques. Pire encore, le code écrit par le développeur ne change pas directement le comportement du programme – un fondateur expérimenté a utilisé l'analogie selon laquelle «ML est essentiellement du code qui crée du code (en fonction des données d'entrée)… cela crée une couche supplémentaire d'indirection difficile à raison. »**

Le travail d'un développeur d'IA consiste à adapter un modèle statistique à un ensemble de données, à tester les performances du modèle sur de nouvelles données et à répéter. Il s'agit essentiellement d'une tentative de régner dans la complexité du monde réel. Cliquez pour tweeter

La longue traîne et l'apprentissage automatique

De nombreuses difficultés rencontrées pour créer des entreprises d'IA efficaces surviennent face à des distributions de données à longue traîne, qui sont bien documenté dans de nombreux systèmes naturels et informatiques.

Alors que les définitions formelles du concept peuvent être assez dense, l'intuition derrière cela est relativement simple: si vous choisissez un point de données dans une distribution à longue queue au hasard, il est très probable (pour les besoins de cet article, disons au moins 50% et peut-être beaucoup plus élevé) d'être dans le queue.

Prenons l'exemple des termes de recherche sur Internet. Les mots clés populaires en «tête» et «milieu» de la distribution (indiqués en bleu ci-dessous) représentent moins de 30% de tous les termes. Les 70% restants des mots clés se trouvent dans la «queue», enregistrant moins de 100 recherches par mois. Si vous supposez qu'il faut la même quantité de travail pour traiter une requête, quel que soit son emplacement dans la distribution, alors dans un système à queue lourde, la majorité du travail sera dans la queue – où la valeur par requête est relativement faible.

Screen Shot 2020 08 11 at 4.58.15 PM

Il devient clair que les distributions à longue traîne sont également extrêmement courantes dans l'apprentissage automatique, reflétant l'état du monde réel et les pratiques typiques de collecte de données. Ces graphiques, par exemple, montrent la fréquence des classes de modèles dans plusieurs ensembles de données de recherche populaires sur l'IA.

Screen Shot 2020 08 11 at 5.00.39 PM

Ces types de distributions ne sont pas nécessairement mauvais. Mais – contrairement à l'exemple de recherche sur Internet – les techniques actuelles de ML ne sont pas bien équipées pour les gérer. Les modèles d'apprentissage supervisé ont tendance à bien fonctionner sur les intrants communs (c'est-à-dire le chef de la distribution) mais ont du mal là où les exemples sont rares (la queue). Étant donné que la queue constitue souvent la majorité de toutes les entrées, les développeurs de ML se retrouvent dans une boucle – apparemment infinie, parfois – à collecter de nouvelles données et à se recycler pour tenir compte des cas extrêmes. Et ignorer la queue peut être tout aussi douloureux, entraînant des opportunités client manquées, une économie médiocre et / ou des utilisateurs frustrés.

Étant donné que la queue constitue souvent la majorité de toutes les entrées, les développeurs ML se retrouvent dans une boucle – apparemment infinie, parfois – à collecter de nouvelles données et à se recycler pour tenir compte des cas extrêmes. Cliquez pour tweeter

Impact sur l'économie de l'IA

La longue traîne – et le travail qu'elle crée – s'avère être une cause majeure des défis économiques de la création d'entreprises d'IA.

L'impact le plus immédiat est sur le coût brut des données et des ressources de calcul. Ces coûts sont souvent beaucoup plus élevés pour le ML que pour les logiciels traditionnels, car tant de données, tant d'expériences et tant de paramètres sont nécessaires pour obtenir des résultats précis. Pour l'anecdote, les coûts de développement – et les taux d'échec – des applications d'IA peuvent être 3 à 5 fois plus élevés que dans les produits logiciels classiques.

Cependant, une focalisation étroite sur les coûts du cloud passe à côté de deux autres impacts potentiels pernicieux de la longue traîne. Premièrement, la longue traîne peut contribuer à des coûts variables élevés au-delà des infrastructures. Si, par exemple, les questions envoyées à un chatbot varient considérablement d'un client à l'autre – c'est-à-dire qu'une grande partie des requêtes se trouvent dans la queue – alors la construction d'un système précis nécessitera probablement un travail considérable. par client. Malheureusement, en fonction de la répartition de l'espace de solution, ce travail et le COGS associé (coût des marchandises vendues) peuvent être difficiles à concevoir.

Pire encore, les entreprises d'IA travaillant sur des problèmes à longue queue peuvent en fait montrer déséconomies d'échelle – ce qui signifie que l'économie se détériore avec le temps par rapport aux concurrents. Les données ont un coût à collecter, à traiter et à maintenir. Bien que ce coût ait tendance à diminuer avec le temps par rapport au volume de données, l'avantage marginal des points de données supplémentaires diminue beaucoup plus rapidement. En fait, cette relation semble exponentielle – à un moment donné, les développeurs peuvent avoir besoin de 10 fois plus de données pour obtenir une amélioration subjective 2x. S'il est tentant de souhaiter une IA analogue à la loi de Moore qui améliorera considérablement les performances de traitement et réduira les coûts, cela ne fait pas semblent avoir lieu (améliorations algorithmiques nonobstant).

Dans ce qui suit, nous présentons les conseils recueillis auprès de nombreux praticiens sur la manière de réfléchir et de résoudre ces problèmes.

Partie II: Construire de meilleurs systèmes d'IA

Vers une solution

Ainsi, de nombreux systèmes d'IA sont conçus pour prédire les interactions dans des systèmes sous-jacents complexes, ce qui entraîne des distributions à longue queue des données d'entrée. Les développeurs ne peuvent généralement pas caractériser complètement les données, ils les modélisent donc à travers une série d'expériences d'apprentissage (supervisées). Ce processus nécessite une énorme quantité de travail, peut rencontrer une asymptote en termes de performances, et provoque ou exacerbe de nombreux défis économiques auxquels sont confrontées les entreprises d'IA.

C'est le nœud du dilemme commercial de l'IA. Si les aspects économiques sont fonction du problème – et non de la technologie en soi – comment pouvons-nous les améliorer?

Il n'y a pas de réponse facile. La longue traîne est, à certains égards, une mesure de la complexité du problème à résoudre – c'est-à-dire la raison pour laquelle nous avons besoin d'automatisation en premier lieu – et est directement corrélée à l'effort nécessaire pour y faire face. Il existe cependant des moyens de traiter la longue traîne comme une préoccupation de premier ordre et de construire pour elle.

Nous avons entendu une tonne de bons conseils d'ingénieurs et de chercheurs en ML sur ce sujet. Nous partageons quelques-uns des conseils les meilleurs et les plus innovants ci-dessous.

La longue traîne est, à certains égards, une mesure de la complexité du problème à résoudre et est directement corrélée à l'effort nécessaire pour y faire face. Il existe cependant des moyens de le traiter comme une préoccupation de premier ordre et de construire pour cela. Cliquez pour tweeter

Mode facile: problèmes limités

Dans le cas le plus simple, comprendre le problème signifie déterminer si vous avez réellement affaire à une distribution à longue queue. Sinon – par exemple, si le problème peut être assez bien décrit avec des contraintes linéaires ou polynomiales – le message était clair: n'utilisez pas l'apprentissage automatique! Et surtout n'utilisez pas le deep learning.

Cela peut sembler un conseil étrange de la part d'un groupe d'experts en IA. Mais cela reflète la réalité que les coûts que nous avons documentés dans notre dernier post peuvent être substantielles – et les causes qui les sous-tendent, abordées dans la première partie de cet article, sont difficiles à contourner. Ces problèmes ont également tendance à s'aggraver à mesure que la complexité des modèles augmente, car les modèles sophistiqués sont coûteux à entraîner et à entretenir. Ils peuvent même être moins performants que des techniques plus simples lorsqu'ils sont utilisés de manière inappropriée, tendant à surparamétrer de petits ensembles de données et / ou à produire des modèles fragiles qui se dégradent rapidement en production.

Lorsque vous utilisez le ML, a souligné un ingénieur de Shopify, la régression logistique et les forêts aléatoires sont populaires pour une raison: elles sont interprétables, évolutives et rentables. Les modèles plus grands et plus sophistiqués fonctionnent mieux dans de nombreux cas (par exemple pour la compréhension / la génération de la langue, ou pour capturer les tendances en évolution rapide des médias sociaux). Mais il est important de déterminer quand les améliorations de précision justifient des augmentations significatives des coûts de formation et de maintenance.

Comme l'a dit un autre leader du ML, «le ML n'est pas une religion, mais la science, l'ingénierie et un peu d'art. Le vocabulaire des approches ML est assez vaste, et bien que nous, scientifiques, ayons tendance à voir que chaque problème est le clou qui correspond au marteau que nous venons de finir de construire, le problème peut parfois être une vis si nous regardons précisément. »***

Plus fort: Global problèmes de longue queue

Si vous travaillez sur un problème de longue traîne, qui inclut les tâches de NLP (traitement du langage naturel), de vision par ordinateur et d’autres tâches de ML les plus courantes, il est essentiel de déterminer le degré de cohérence entre les clients, les régions, les segments et les autres cohortes d’utilisateurs. Si le chevauchement est élevé, il est probable que vous puissiez servir la plupart de vos utilisateurs avec un modèle global (ou un ensemble). Cela peut avoir un impact positif énorme sur les marges brutes et l'efficacité de l'ingénierie.

Nous avons observé ce modèle le plus souvent dans les entreprises de technologie B2C qui ont accès à de grands ensembles de données utilisateur. Les mêmes avantages sont souvent valables pour les fournisseurs B2B travaillant sur des tâches sans contrainte dans des environnements à faible entropie comme les véhicules autonomes, la détection de fraude ou la saisie de données – où le paramètre de déploiement a une influence assez faible sur le comportement des utilisateurs.

Dans ces situations, une formation locale (par exemple pour les grands clients) est souvent encore nécessaire. Mais vous pouvez le minimiser en cadrant le problème dans un contexte global et en construisant de manière proactive autour de la longue traîne. Le conseil standard pour ce faire comprend:

  • Optimiser le modèle en ajoutant plus de données d'entraînement (y compris les données client), en ajustant les hyperparamètres ou en peaufinant l'architecture du modèle – ce qui a tendance à être utile uniquement jusqu'à ce que vous atteigniez la longue traîne
  • Limitez le problème en restreignant explicitement ce qu'un utilisateur peut entrer dans le système – ce qui est plus utile lorsque le problème a une «grosse tête» (par exemple, les fournisseurs de données qui se concentrent sur des contacts de grande valeur) ou est susceptible d'erreurs de l'utilisateur (par exemple, Linkedin comptait 17 000 entités liés à IBM jusqu'à ce qu'ils mettent en œuvre l'auto-complétion)
  • Convertissez le problème dans une interface à un seul tour (par exemple, des flux de contenu, des suggestions de produits, des «personnes que vous connaissez peut-être», etc.) ou une invite de saisie utilisateur / de conception de basculement humain pour couvrir des cas exceptionnels (par exemple, téléopérations pour véhicules autonomes)

Screen Shot 2020 08 11 at 5.15.52 PM

Cependant, pour de nombreux problèmes du monde réel, ces tactiques peuvent ne pas être réalisables. Pour ces cas, les constructeurs de ML expérimentés ont partagé un modèle plus général appelé composant.

Un ingénieur ML de Cloudflare, par exemple, a partagé un exemple lié à détection de bots. Leur objectif était de traiter un ensemble massif de fichiers journaux pour identifier (et signaler ou bloquer) les visiteurs non humains de millions de sites Web. Traiter cela comme une tâche unique était inefficace à grande échelle car le concept de «bot» incluait des centaines de sous-types distincts – robots d'exploration, grattoirs de données, scanners de ports, etc. – présentant des comportements uniques. En utilisant des techniques de clustering et en expérimentant différents niveaux de granularité, ils ont finalement trouvé 6 à 7 catégories de bots qui pouvaient chacune être abordées avec un modèle d'apprentissage supervisé unique. Leurs modèles fonctionnent désormais sur une partie significative d'Internet, offrant une protection en temps réel, avec des marges brutes de type logiciel.

Screen Shot 2020 08 11 at 5.16.20 PM

La création de composants est utilisée dans de nombreux systèmes de ML de production à grande échelle, y compris la détection de la fraude publicitaire, la souscription de prêts et la modération du contenu des médias sociaux. L'élément critique de conception est que chaque modèle s'adresse à une tranche globale de données – plutôt qu'à un client particulier, par exemple – et que les sous-problèmes sont relativement limités et faciles à raisonner. Il s'avère que rien ne peut remplacer une expertise approfondie du domaine.

En composant, chaque modèle aborde une tranche globale de données et les sous-problèmes sont relativement limités et faciles à raisonner. Cliquez pour tweeter

Vraiment dur: Local problèmes de longue queue

De nombreux problèmes ne montrent pas de cohérence globale entre les clients ou d'autres cohortes d'utilisateurs – presque toutes les équipes de ML avec lesquelles nous avons parlé ont souligné à quel point il est courant de voir au moins une variation de problème local. La détermination du chevauchement n'est pas non plus triviale, car les données d'entrée (en particulier dans l'entreprise) peuvent être séparées pour des raisons commerciales ou réglementaires. Souvent, la différence entre un problème global et un problème local réside dans l'étendue des données disponibles.

Les problèmes locaux de ML ont encore souvent des distributions à longue queue qui doivent être traitées. Mais le travail peut rapidement se multiplier en fonction du degré de variation locale. Une grande entreprise de streaming musical, par exemple, a découvert qu'elle avait besoin de modèles de génération de listes de lecture uniques pour chaque pays où elle opère. De même, les fournisseurs d'analyses en usine se retrouvent souvent avec un modèle unique pour chaque client ou chaîne de montage qu'ils desservent. Bien qu'il n'y ait pas de solution simple pour cela, plusieurs stratégies peuvent aider à apporter les avantages des modèles globaux aux espaces de problèmes locaux.

Une option pratique à court terme est la méta modèle modèle, dans lequel un seul modèle est formé pour couvrir une gamme de clients ou de tâches. Cette technique a tendance à être discutée le plus souvent dans un cadre de recherche (par exemple, les robots multi-tâches). Mais pour les entreprises d'applications d'IA, cela peut également réduire considérablement le nombre de modèles à entretenir. Une start-up marketing réussie, par exemple, a pu combiner des milliers de modèles spécifiques au client hors ligne en un seul méta-modèle – qui était beaucoup moins coûteux globalement à se recycler.

Une autre solution émergente est transfert d'apprentissage. Il y a un enthousiasme généralisé parmi les équipes de ML pour les modèles pré-formés – en particulier les modèles de langage axés sur l'attention comme BERT ou GPT-3 – peut réduire et simplifier les besoins de formation à tous les niveaux, ce qui facilite grandement l'ajustement des modèles par client avec de petites quantités de données. Il ne fait aucun doute sur le potentiel de ces techniques. Cependant, relativement peu d'entreprises utilisent aujourd'hui ces modèles de manière intensive en production – en partie parce que leur taille massive les rend difficiles et coûteux à exploiter – et un travail spécifique au client est encore nécessaire dans de nombreuses applications. Les avantages de ce domaine prometteur ne semblent pas encore largement réalisés.

Enfin, plusieurs praticiens de grandes entreprises technologiques ont décrit une variante de l'apprentissage par transfert basée sur modèles de coffre. Facebook, par exemple, maintient milliers des modèles ML, dont la plupart ont été formés séparément pour une tâche spécifique. Mais au fil du temps, les modèles qui partagent des fonctionnalités similaires peuvent être associés à un «tronc» commun pour réduire la complexité. L'objectif est de rendre les modèles de tronc aussi «épais» que possible (c'est-à-dire faire la plupart du travail) tout en rendant les modèles de «branches» spécifiques à la tâche aussi «minces» que possible – sans sacrifier la précision. Dans un exemple publié, une équipe d'IA travaillant sur des descriptions de produits automatisées a combiné sept modèles spécifiques à la verticale – un pour les meubles, un pour la mode, un pour les voitures, etc. – en une seule architecture à coffre qui était deux fois plus précise et moins coûteuse à gérer.

À la limite, cette approche ressemble beaucoup au modèle de modèle global. En même temps, il permet le développement de modèles parallèles et un degré élevé de précision locale. Il fournit également aux data scientists des données intégrées plus riches avec lesquelles travailler et convertit certains problèmes O (n ^ 2) – comme la traduction de langue, où vous devez traduire chacun des n langues vers n d'autres langues – en complexité O (n) – où chaque langue peut être traduite en une représentation intermédiaire à la place. Cela peut être une indication de la direction que prendra l'avenir, aidant à définir les blocs de construction de base ou les API du processus de développement ML.

Une équipe d'IA travaillant sur des descriptions de produits automatisées a combiné sept modèles spécifiques à la verticale – un pour les meubles, un pour la mode, un pour les voitures, etc. – en une seule architecture à coffre qui était deux fois plus précise et moins coûteuse à gérer. Cliquez pour tweeter

Piquets de table: opérations

Enfin, de nombreux ingénieurs expérimentés en ML ont souligné l'importance des meilleures pratiques opérationnelles pour améliorer l'économie de l'IA. Voici quelques-uns des exemples les plus convaincants.

Consolidez les pipelines de données. L'expansion du modèle ne doit pas nécessairement signifier l'étalement du pipeline. Lorsque les modèles mondiaux n’étaient pas réalisables, un fondateur a réalisé des gains d’efficacité en combinant la plupart des clients en un seul processus de transformation des données avec un impact relativement mineur sur la latence du système. D'autres groupes ont réduit les coûts en se recyclant moins souvent (par exemple via une file d'attente nocturne ou lorsque suffisamment de données s'accumulent) et en effectuant des entraînements plus proches des données.

Construisez un moteur Edge Case. Vous ne pouvez pas aborder la longue traîne si vous ne pouvez pas la voir. Tesla, par exemple, a rassemblé un énorme ensemble de données panneaux d'arrêt étranges pour former leurs modèles de pilote automatique. La collecte de données à longue traîne de manière répétable est une capacité critique pour la plupart des équipes de ML – impliquant généralement l'identification des données hors distribution en production (soit avec des tests statistiques, soit en mesurant le comportement inhabituel du modèle), la recherche d'exemples similaires, l'étiquetage des nouvelles données , et recycler intelligemment, en utilisant souvent l'apprentissage actif.

Posséder l'infrastructure. De nombreuses organisations de ML de premier plan gèrent (et même conçoivent) leurs propres clusters ML. Dans certains cas, cela peut également être une bonne idée pour les startups – un PDG avec lequel nous avons parlé a économisé environ 10 millions de dollars par an en passant d'AWS à ses propres boîtiers GPU hébergés dans des installations de colocation. La question clé pour les fondateurs est de déterminer à quelle échelle les économies de coûts justifient le fardeau de la maintenance – et à quelle vitesse les courbes de prix du cloud diminueront.

Compressez, compilez et optimisez. Au fur et à mesure que les modèles deviennent de plus en plus volumineux, des techniques pour prendre en charge l'inférence et la formation efficaces, y compris la quantification, distillation, taille, et compilation – deviennent indispensables. Ils sont également de plus en plus disponibles via des modèles pré-formés ou des API automatisées. Ces outils ne changeront pas l'économie de la plupart des problèmes d'IA, mais peuvent aider à gérer les coûts à grande échelle.

Testez, testez, testez. Cela peut sembler évident, mais plusieurs experts ont encouragé les équipes de ML à faire des tests une priorité – et non sur la base de mécanismes classiques comme le score F. Les applications d'apprentissage automatique fonctionnent souvent (et échouent) de manière non déterministe. Les «bogues» peuvent être peu intuitifs, introduits par des données incorrectes, des incohérences de précision ou des violations implicites de la vie privée. Les mises à niveau touchent également régulièrement des dizaines d’applications et la rétrocompatibilité n’est pas disponible. Ces problèmes nécessitent des tests rigoureux de la distribution des données, de la dérive attendue, des biais, des tactiques contradictoires et d'autres facteurs encore à codifier.

L'intelligence artificielle et l'apprentissage automatique commencent à peine à émerger de leur stade de formation – et du sommet du cycle de battage médiatique – à une période de développement et d'opérations plus pratiques et plus efficaces. Il y a encore énormément de travail à faire autour de la longue traîne et d'autres problèmes, réinventant en quelque sorte les constructions familières du développement logiciel. Il est peu probable que l'économie de l'IA corresponde jamais tout à fait aux logiciels traditionnels. Mais nous espérons que ce guide aidera à faire avancer la conversation et à diffuser d'excellents conseils de constructeurs d'IA expérimentés.

Nous tenons à remercier ÉNORMEMENT tous ceux qui ont répondu à notre dernier message et fourni des informations pour celui-ci, y compris (citons les attributions entre parenthèses): Aman Naimat (*), Shubho Sengupta, Nikon Rasumov, Vitaly Gordon (**) , Hassan Sawaf (***), Adam Bly, Manohar Paluri, Jeet Mehta, Subash Sundaresan, Alex Holub, Evan Reiser, Zayd Enam, Evan Sparks, Mitul Tiwari, Ihab Ilyas, Kevin Guo, Chris Padwick et Serkan Piantino.

Les opinions exprimées ici sont celles de l'individu AH Capital Management, L.L.C. («A16z») cités et ne reflètent pas les opinions d'a16z ou de ses affiliés. Certaines informations contenues ici ont été obtenues de sources tierces, y compris de sociétés de portefeuille de fonds gérés par a16z. Bien que tirées de sources considérées comme fiables, a16z n'a pas vérifié de manière indépendante ces informations et ne fait aucune déclaration quant à l'exactitude durable des informations ou à leur pertinence pour une situation donnée. En outre, ce contenu peut inclure des publicités de tiers; a16z n'a pas examiné ces publicités et ne cautionne aucun contenu publicitaire qui y est contenu.

Ce contenu est fourni à titre informatif uniquement et ne doit pas être considéré comme un conseil juridique, commercial, d'investissement ou fiscal. Vous devriez consulter vos propres conseillers sur ces questions. Les références à des titres ou des actifs numériques sont à titre indicatif uniquement et ne constituent pas une recommandation d'investissement ou une offre de fournir des services de conseil en investissement. En outre, ce contenu n'est pas destiné à ni destiné à être utilisé par des investisseurs ou des investisseurs potentiels, et ne peut en aucun cas être invoqué lors de la décision d'investir dans un fonds géré par a16z. (Une offre d'investir dans un fonds a16z sera faite uniquement par le mémorandum de placement privé, le contrat de souscription et toute autre documentation pertinente d'un tel fonds et doit être lue dans son intégralité.) Tout investissement ou société de portefeuille mentionné, mentionné, ou décrits ne sont pas représentatifs de tous les investissements dans des véhicules gérés par a16z, et rien ne garantit que les investissements seront rentables ou que d'autres investissements réalisés dans le futur auront des caractéristiques ou des résultats similaires. Une liste des investissements réalisés par des fonds gérés par Andreessen Horowitz (à l'exclusion des investissements pour lesquels l'émetteur n'a pas autorisé a16z à divulguer publiquement ainsi que les investissements non annoncés dans des actifs numériques cotés en bourse) est disponible sur https://a16z.com/investments /.

Les tableaux et graphiques fournis à l'intérieur sont à titre informatif uniquement et ne doivent pas être utilisés lors de la prise de décision d'investissement. Les performances passées ne représentent pas les résultats futurs. Le contenu ne parle qu'à la date indiquée. Toutes les projections, estimations, prévisions, cibles, perspectives et / ou opinions exprimées dans ces documents sont susceptibles d'être modifiées sans préavis et peuvent différer ou être contraires aux opinions exprimées par d'autres. Veuillez consulter https://a16z.com/disclosures pour plus d'informations importantes.





Traduction de l’article de dasrush : Article Original

BlockBlog

Le Meilleur de l'Actualité Blockchain Francophone & Internationale | News, Guides, Avis & Tutoriels pour s'informer et démarrer facilement avec Bitcoin, les Crypto-Monnaies et le Blockchain. En Savoir Plus sur L'Équipe BlockBlog

Commenter cet Article

Commenter cet Article

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Plus dans News

Les Plus Populaires

Acheter des Bitcoin

Acheter des Alt-Coins

Sécuriser vos Cryptos

Vêtements et Produits Dérivés

Top