Category: Non classé

Juil 28

Des erreurs sur le F-35 gardées secrêtes

À mesure que le programme F-35 progresse dans les essais opérationnels, le nombre de déficiences techniques critiques diminue lentement, passant de 11 déficiences critiques en janvier à 7 en juillet.

Cependant, la nature exacte de ces problèmes restera inconnue du public, même si la déficience elle-même n’est pas classifiée. Le Joint Program Office du F-35 a refusé de caractériser les sept déficiences critiques restantes de l’avion de combat, mais a déclaré dans un communiqué qu’il avait identifié et testé des solutions pour chaque problème.

« Les détails des [déficiences] – même ceux qui ne sont pas classifiés – ne peuvent pas être divulgués publiquement car il s’agit d’informations sensibles sur le plan opérationnel, et leur diffusion pourrait nuire aux combattants américains et internationaux qui utilisent des F-35 dans le monde entier », a déclaré Laura Seal, porte-parole du JPO F-35.

Seal a noté que toutes les déficiences critiques restantes sont classées comme des problèmes de catégorie 1B, qui représentent un « impact critique sur la préparation de la mission ». Les problèmes plus graves de catégorie 1A indiquent un risque pour la vie de l’opérateur.

Lockheed Martin a également refusé de fournir des détails supplémentaires sur les déficiences.

« Nous assurons le suivi de tous les rapports de déficience des F-35. Cependant, tous les rapports de déficience ne représentent pas des déficiences contractuelles, mais peuvent plutôt représenter des observations ou des améliorations potentielles du produit », a déclaré l’entreprise dans un communiqué.

En juin 2019, Defense News a publié une enquête sur le F-35 qui détaillait les 13 déficiences de catégorie 1 inscrites dans les livres à l’époque – la première et seule fois qu’une liste complète des déficiences critiques du F-35 a été rendue publique.

Le bureau du programme a confirmé en avril 2020 que le nombre de défauts critiques était tombé à sept, et qu’il ne restait que trois déficiences de la liste des problèmes connus publiée précédemment :

Un problème technique impliquant le système de régulation de la pression du cockpit du F-35′ a conduit à plusieurs incidents de douleurs extrêmes aux sinus, ou barotraumatisme. En avril 2020, le bureau du programme pensait pouvoir résoudre le problème en 2021 après avoir testé en vol le correctif.
Les nuits avec peu de lumière ambiante, la caméra de vision nocturne intégrée au casque du F-35 pourrait afficher des lignes vertes horizontales qui pourraient rendre plus difficile l’atterrissage des pilotes sur les navires. Le JPO avait l’intention de tester une mise à jour logicielle pour le casque de génération III afin d’évaluer si cela pouvait corriger le problème dans l’espoir de déclarer la déficience résolue en 2021.
Le radar actif à balayage électronique AN/APG-81 du F-35, fabriqué par Northrop Grumman, répond aux exigences, mais la Marine souhaite améliorer le système afin qu’il puisse balayer une zone plus large en mode de recherche en mer. En 2020, le bureau de programme a déclaré que cette question resterait en suspens jusqu’en 2024, date à laquelle une mise à jour logicielle sera effectuée sur l’équipement avionique de l’appareil.
Le JPO a refusé de commenter si ces déficiences spécifiques sont résolues. Cependant, Seal a noté que quatre des sept déficiences critiques devraient être corrigées d’ici la fin du mois d’octobre, et qu’une autre déficience devrait être corrigée au début de l’année 2022 après des tests à bord du navire.

Le programme n’a pas fixé de calendrier pour la résolution des deux autres déficiences, qui « sont en cours de réalisation en fonction du calendrier des tests », a déclaré M. Seal.

Le Government Accountability Office a recommandé que le programme corrige toutes les déficiences critiques du F-35′ avant que le Pentagone n’approuve la production à plein régime, une action qui, selon le chien de garde, vol L-39 « réduirait le potentiel de coûts de concurrence supplémentaires découlant de la poursuite de la production d’avions avant la fin des essais ».

Bien que le ministère de la Défense ait accepté cette recommandation, le calendrier de la décision de l’étape C – qui précède la production à plein régime – a connu des retards importants.

Les tests opérationnels doivent être terminés avant que le Pentagone ne puisse prendre une décision concernant l’étape C. Cependant, ces essais sont au point mort pendant que le bureau du programme termine son travail sur l’environnement de simulation interarmées, un environnement virtuel qui reproduit les menaces adverses – y compris des versions très réalistes des avions et des armes ennemis – qui sont trop complexes pour être simulées lors d’un entraînement réel.

Le ministère de la défense avait l’intention d’achever les tests du simulateur des F-35 avant de prendre une décision de production complète en 2019, mais les responsables des tests ont découvert des problèmes techniques avec le simulateur et n’ont pas été en mesure d’achever les 64 tests nécessitant l’environnement de simulation conjoint.

Le programme pourrait publier un calendrier mis à jour des tests du simulateur dès le mois d’août, a déclaré le GAO dans un rapport du 13 juillet. « Jusqu’à ce que cela se produise, la date de production à pleine capacité reste indéterminée », a déclaré le GAO.

Outre les déficiences majeures de catégorie 1, le programme suit 850 déficiences de catégorie 2 – des problèmes mineurs qui représentent un « obstacle ou une contrainte possible à l’accomplissement réussi de la mission », a déclaré Seal.

Sur les 850 problèmes mineurs, 165 sont classés comme « améliorations », ce qui signifie qu’ils ne représentent pas une déviation des exigences du programme comme la plupart des déficiences signalées. Ces caractéristiques sont généralement considérées comme des mises à niveau futures proposées, a déclaré Seal.

Commentaires fermés sur Des erreurs sur le F-35 gardées secrêtes
Juil 07

Boeing réduit encore sa production

L’activité manufacturière a augmenté en janvier, mais seulement si vous excluez les effets des problèmes persistants de Boeing.
L’activité des usines a légèrement reculé d’un dixième de point de pourcentage en janvier, selon les données publiées par la Réserve fédérale. En excluant les avions civils, cependant, la fabrication a augmenté d’un respectable trois dixièmes de point de pourcentage. Par rapport à il y a un an, la production a diminué de 0,8%.
La production d’équipements commerciaux a baissé de 2,6% en raison du ralentissement de la production d’avions », a déclaré la Fed.
Boeing a suspendu la production du 737 Max en janvier, mais a annoncé la suspension à la mi-décembre. Il est probable que la contraction de 0,7% de décembre de la production d’équipements commerciaux est également due à la suspension prochaine de la production. L’utilisation des capacités de fabrication a légèrement baissé de 0,1 point de pourcentage en janvier pour s’établir à 75,1%, soit 3,1 points de pourcentage au-dessous de sa moyenne à long terme, reflétant probablement également un ralentissement de Boeing.
Ainsi, sans l’effet Boeing, la production manufacturière de janvier augmenterait cumulativement depuis février dernier – de 1,09%, et non de 0,70%. Et l’augmentation depuis l’avènement des principaux droits de douane de Trump aurait été de 0,74%, et non de 0,34% », souligne Alan Tonelson.
La production d’automobiles et de pièces a augmenté de 2,4% en janvier, un répit bienvenu après la baisse de 5,1% en décembre. Par rapport à il y a un an, la production a augmenté de 5,3%.
Les automobiles ont contribué à faire grimper la production globale de biens de consommation durables en janvier, pour une augmentation de 1,2%. Mais en dehors des automobiles, cette catégorie montre des signes de douceur. La production d’électronique domestique a chuté de 1,1%, la troisième baisse consécutive. Les appareils électroménagers, les meubles et les tapis ont chuté de 2,8% après avoir augmenté en décembre et novembre.
Ce sont des chiffres désaisonnalisés, ce qui signifie que la baisse de la production d’appareils électroménagers et de meubles ne peut pas être annulée par une période de ralentissement du marché du logement. Si quelque chose, il est possible que la désaisonnalisation gonfle ces catégories parce que le temps doux semble avoir rendu le marasme d’hiver habituel pour le marché du logement moins marrant. Étant donné la force globale du consommateur américain, les baisses ici sont inquiétantes. Ils peuvent indiquer la nécessité d’une politique commerciale plus ferme pour éviter qu’une trop grande production ne réponde à des fabricants étrangers.
La grande et large catégorie de production industrielle a baissé de 0,3% en janvier, marquant la quatrième baisse au cours des cinq derniers mois. La catégorie combine la fabrication, l’exploitation minière et les services publics. Les services publics ont connu une forte baisse de 4% en janvier grâce à la douceur du temps, faisant des journées ensoleillées la principale cause de la baisse de la production industrielle.
L’exploitation minière a connu son deuxième gain consécutif en janvier.

Commentaires fermés sur Boeing réduit encore sa production
Mai 05

Faire confiance en finance

Le système économique difficile d’aujourd’hui exige un conseiller économique équipé pour évoluer. Voici comment vérifier si le vôtre est parfaitement à la hauteur de la tâche. Qu’il s’agisse de troubles gouvernementaux, d’un événement de type « cygne noir », d’une situation immobilière ou d’une pandémie mondiale, il y a très peu d’années « normales » sur la planète financière. Dans l' »économie post-normale », comme le dit Barry Ritholtz, les conseillers financiers doivent se distinguer de ceux d’hier. Les marchés sont beaucoup plus imprévisibles. La volatilité est considérée comme la norme. Les places de marché des ressources numériques ne sont jamais loin. Ce ne sont là que quelques-uns des éléments qui ont rendu l’investissement beaucoup plus difficile. Aujourd’hui, plus que jamais, il est essentiel que vous possédiez un expert financier travaillant pour vous, capable de vous empêcher de prendre des décisions que vous pourriez regretter. Le début de la pandémie en est certainement un exemple. Pratiquement tous mes clients m’ont appelé pour me demander de vendre des actions au même moment. Au cours des 33 heures entre le 19 février et le 23 mars, l’indice MSCI Planet a chuté de 34 %, rachat de crédit propriétaire La Réunion et mes clients ont apparemment atteint leur seuil de rupture. Avons-nous fait du marketing ? Après une conversation réfléchie, la réponse correcte est généralement non, et je peux vous dire que la plupart d’entre eux m’ont remercié six mois plus tard. Mon point de vue est que les besoins des investisseurs évoluent. Les experts monétaires doivent continuer à s’adapter et à évoluer avec les individus et les ménages qu’ils servent. Même s’il est également important que votre conseiller financier soit en règle avec la SEC, qu’il fasse preuve d’une grande intégrité, qu’il place constamment vos intérêts au premier plan et qu’il soit également un expert en ce qui concerne vos besoins en matière de préparation monétaire, je dirais que ce sont des enjeux de table – les experts monétaires de demain doivent être bien plus que cela. Voici ma liste de 3 questions que vous devriez vous poser pour décider si un conseiller financier possède les qualités dont vous devriez disposer dans le climat économique post-typique : Il est impératif que le conseiller financier puisse anticiper vos besoins et qu’il soit conscient de la façon dont vous pouvez réagir aux facteurs mondiaux qui pourraient avoir un impact sur votre profil. Votre conseiller financier doit prendre le temps de vous connaître personnellement, et pas seulement votre profil. Comprendra-t-il votre mode de vie ? Votre dynamique familiale ? Une compréhension beaucoup plus profonde de qui vous êtes vraiment l’aidera à garder une longueur d’avance et à vous contacter aux bons endroits dans les moments difficiles. Une anecdote qui illustre bien ma pensée est l’histoire d’un de mes clients qui était extrêmement orienté politiquement. Lorsque Barack Obama a été reconduit dans ses fonctions pour un second mandat, ce client a souhaité mettre tout sur le marché et attendre que cela se passe. Je m’étais catégoriquement opposé à la vente de son portefeuille et j’avais étayé mon conseil par des informations historiques. Le recul est de 20/20, et je serais le premier à admettre que je n’ai pas nécessairement raison, mais dans cette situation unique, le marché a dégagé des bénéfices importants au cours des quatre années suivantes et l’indice Dow Jones a atteint 118 nouveaux sommets. Le fait est que si je n’étais pas revenu en voiture, ce client aurait manqué des gains sur le marché qu’il n’aurait pas pu rattraper. Sont-ils capables de créer un lien beaucoup plus profond que la dynamique conseiller-client ? Tout dépend de la confiance que vous avez en eux. Avez-vous le sentiment que le conseiller financier agira toujours à votre avantage ? Il ne s’agit pas seulement de devenir un fiduciaire ; vous devez sentir que votre conseiller financier est sérieusement conscient de vos exigences et de vos objectifs individuels. Avez-vous le sentiment que votre conseiller financier est votre confident ? Votre copain ? Il doit être plus que cela. Vous devez avoir l’impression que votre conseiller financier est une extension de votre famille. Comme je ne pense pas que vous devez faire appel à votre conseiller financier pour tous les choix monétaires de la vie, il est essentiel que vous le considériez comme faisant partie de votre « cercle intérieur » et qu’il ne soit pas une personne à qui vous parlez tous les trimestres pour discuter de votre portefeuille ainsi que de votre stratégie monétaire. Dans le monde d’aujourd’hui, où tout se passe en permanence, votre conseiller financier doit être une personne avec laquelle vous communiquez régulièrement et avec laquelle vous établissez un lien personnel.

Commentaires fermés sur Faire confiance en finance
Avr 27

Le Hamas à la croisée des chemins

La guerre de trois semaines à Gaza entre le Hamas et Israël a une fois de plus mis en évidence les nombreux défis auxquels le premier est confronté en termes de sa propre survie en tant qu’entité cohérente et pertinente dans la politique locale et régionale.
Les défis du Hamas sont nombreux et peuvent être largement divisés en deux grandes catégories: premièrement, sa relation future avec le peuple palestinien et la vision qu’il lui offre; deuxièmement, ses propres problèmes structurels.
En l’absence de sérieuses réformes internes et d’éveil spirituel, le Hamas est destiné à devenir une faction palestinienne non pertinente et peut-être plus radicale dont les seules ressources sont une défiance aveugle et une rhétorique vide.
Des responsables du Hamas ont récemment émergé de semaines après s’être cachés pour une «célébration de la victoire» avec leurs partisans, signe que l’attaque de trois semaines d’Israël n’a ni brisé le groupe ni affaibli son contrôle de Gaza. Des quartiers entiers sont en ruine, mais des policiers du Hamas sont dans les rues, assurant aux Palestiniens qu’ils reconstruiront le territoire. Pendant ce temps, des membres du Hamas distribuent de l’argent à des milliers de familles qui ont perdu leur maison. Même imaginaire, l’ambiance au sein du Hamas est festive.
Dans les rues de Gaza, le soutien au Hamas reste fort, mais dans des expressions privées de colère, de peur et d’épuisement se font entendre. Les Gazaouis se plaignent également des piètres performances militaires du Hamas. Sur les 13 morts dans l’armée et les civils israéliens, Israël ne reconnaît que six soldats directement tués par le Hamas – et affirme avoir tué des centaines de membres du Hamas. Les responsables israéliens affirment également que les Forces de défense israéliennes (FDI) ont fortement dégradé la capacité du Hamas à tirer des roquettes sur les villes israéliennes. Au début de la guerre, le Hamas tirait jusqu’à 80 roquettes par jour, mais à la fin, ce nombre est tombé à pas plus de 20. Les Brigades Izz al-Din al-Qassam du Hamas disent avoir tué 49 Israéliens et perdu 48 les leurs. Ces chiffres sont pratiquement impossibles à vérifier indépendamment.
Nonobstant les capacités de combat inférieures, que réserve l’avenir au Hamas? S’il se regroupera à court terme et se réarmera à moyen terme, comment affrontera-t-il ses défis internes à plus long terme, à savoir ses relations avec le peuple palestinien, ainsi que ses propres problèmes structurels?

Commentaires fermés sur Le Hamas à la croisée des chemins
Mar 02

Jericho: il faut voir la vue du ciel en parachute

En fait, j’ai réalisé quelque chose de grand récemment, parce que je me suis rendu à Jéricho, un endroit tellement gravé en arrière-plan, que j’ai déjà pu profiter de l’oxygène pendant que je fais du saut en parachute. Jéricho est probablement la première colonie constante dans le monde, datant peut-être d’environ 9000 avant notre ère. Les fouilles archéologiques ont mis à jour le passé étendu de Jéricho. Le site de la ville a une merveilleuse valeur archéologique; il offre la preuve de la toute première progression des implantations permanentes et par conséquent de vos premières démarches vers la société. Voir Jéricho dans les cieux est une expertise remarquable. Des vestiges ont été découverts des visites de chasseurs mésolithiques, co2-vieux à environ 9000 avant notre ère, et aussi un long temps de résolution par leurs descendants. Vers 8000 avant notre ère, les gens expérimentés se sont transformés en un quartier structuré compétent pour construire une énorme structure de mur de pierre autour de l’arrangement, augmenté à un moment pas moins que par le biais d’une importante tour de pierres précieuses. La taille de cette colonie justifie l’utilisation du mot ville et implique une population de 2 000 à 3 000 habitants. Par conséquent, ce millier d’années possédait un mouvement remarqué d’un mode de vie de chasse à un arrangement complet. La création de l’agriculture peut en être déduite, et des grains entiers de variétés développées de blé entier et d’orge ont été trouvés. Jéricho est donc l’un des nombreux endroits fournissant des preuves d’une agriculture vraiment antérieure. Il est en fait très possible que, pour fournir suffisamment de territoire pour la culture, l’arrosage ait fini par être créé. Cette tradition néolithique primaire de la Palestine était vraiment une amélioration strictement indigène. Ces passagers avaient réussi vers 7000 avant notre ère par le biais d’un deuxième groupe, livrant une culture qui était encore néolithique mais toujours pas de fabrication de poterie, même si elle n’était pas indigène. Cette carrière suggère presque certainement l’apparition de nouveaux venus parmi les autres centres, peut-être dans le nord de la Syrie, où le mode de vie néolithique basé sur l’agriculture avait produit. Cette deuxième période néolithique s’est terminée vers 6000 avant notre ère. Pour les mille années suivantes, il y a très peu de preuves d’emploi à Jéricho. Pas plus de 5000 avant notre ère, Jéricho a démontré les facteurs de développement qui avaient eu lieu dans le nord, exactement là où une quantité croissante de communautés est apparue, néanmoins néolithique mais désignée par la poterie. Les premiers utilisateurs finaux de poterie de Jéricho étaient en fait, même ainsi, primitifs par rapport à leurs précurseurs sur le site, survivant dans de simples huttes enfoncées dans le sol. Ces gens étaient très probablement principalement des pasteurs. Au cours des 2 000 années suivantes, le travail était clairsemé et peut-être irrégulier. Après le 4ème millénaire avant notre ère, une douane du centre-ville a de nouveau fait son apparition à Jéricho, comme dans le reste de la Palestine. Jéricho était encore une fois une ville fortifiée, avec ses surfaces murales souvent reconstruites. Vers 2300 avant notre ère, il semblait y avoir à nouveau un repos dans la vie quotidienne métropolitaine. Les nouveaux arrivants nomades, comprenant un certain nombre de groupes différents, saut en parachute Narbonne étaient en fait probablement les Amoréens. Leurs successeurs, vers 1900 avant notre ère, avaient été les Cananéens, exprimant une coutume découverte sur toute la longueur du littoral méditerranéen. Les Cananéens ont réintroduit la vie quotidienne de la ville, et les fouilles ont fourni des preuves à la fois de leurs résidences et de leurs meubles à domicile, qui avaient été trouvés dans leurs tombes comme des dispositifs des morts dans l’au-delà. Ces résultats ont souligné le type de tradition que ces Israélites ont identifié lorsqu’ils se sont infiltrés à Canaan et qu’ils ont généralement utilisé. Pour moi, ce saut en parachute a été une expérience incroyable en particulier, et je le suggère fortement, à Jéricho quand vous le pouvez, ou plus près de vous. Un saut en parachute est tout simplement incroyable.

Commentaires fermés sur Jericho: il faut voir la vue du ciel en parachute
Fév 16

Un guide pour un scepticisme sain de l’intelligence artificielle et du coronavirus

Ce rapport de l’Initiative pour l’intelligence artificielle et les technologies émergentes (AIET) de la Brookings Institution fait partie de la gouvernance de l’IA », une série qui identifie les principaux problèmes de gouvernance et de normalisation liés à l’IA et propose des remèdes politiques pour relever les défis complexes associés aux technologies émergentes.
L’épidémie de COVID-19 a stimulé une couverture médiatique considérable sur les façons dont l’intelligence artificielle (IA) peut lutter contre la propagation de la pandémie. Malheureusement, une grande partie n’a pas été suffisamment sceptique quant aux affirmations de la valeur de l’IA. Comme de nombreux outils, l’IA a un rôle à jouer, mais son effet sur l’épidémie est probablement faible. Bien que cela puisse changer à l’avenir, des technologies telles que la communication de données, la télémédecine et les outils de diagnostic conventionnels ont actuellement beaucoup plus d’impact que l’IA.
1. Faites appel aux experts en la matière
Quel que soit le sujet, l’IA n’est utile que lorsqu’elle est appliquée judicieusement par des experts en la matière – des personnes ayant une longue expérience du problème qu’elles tentent de résoudre. Malgré tous les discours sur les algorithmes et les mégadonnées, décider quoi prédire et comment encadrer ces prédictions est souvent l’aspect le plus difficile de l’application de l’IA. Prévoir efficacement un problème mal défini est pire que de ne rien faire du tout. De même, cela nécessite toujours une expertise en la matière pour savoir si les modèles continueront de fonctionner à l’avenir, seront précis sur différentes populations et permettront des interventions significatives.
Dans le cas de la prévision de la propagation de COVID-19, regardez les épidémiologistes, qui utilisent des modèles statistiques pour examiner les pandémies depuis longtemps. Des modèles mathématiques simples de la mortalité due à la variole remontent à 1766 et l’épidémiologie mathématique moderne a commencé au début des années 1900. Le domaine a développé une connaissance approfondie de ses problèmes particuliers, tels que la façon de prendre en compte les facteurs communautaires dans le taux de transmission des maladies, que la plupart des informaticiens, statisticiens et ingénieurs en apprentissage automatique n’auront pas.
Il n’y a pas de valeur dans l’IA sans expertise en la matière. »
Il est certain que certains modèles épidémiologiques utilisent l’IA. Cependant, cela ne doit pas être confondu avec l’IA prédisant la propagation de COVID-19 seule. Contrairement aux modèles d’IA qui n’apprennent que les modèles à partir de données historiques, les épidémiologistes construisent des modèles statistiques qui incorporent explicitement un siècle de découvertes scientifiques. Ces approches sont des journalistes très, très différents qui couvrent à bout de souffle l’IA qui a prédit le coronavirus »et les quants sur Twitter créant leurs tout premiers modèles de pandémies devraient tenir compte: il n’y a pas de valeur dans l’IA sans expertise en la matière.
2. L’IA a besoin de beaucoup de données
L’ensemble d’algorithmes qui a conquis Go, un jeu de société stratégique et Jeopardy! » ont accompli des exploits impressionnants, mais ils ne sont encore que des reconnaissances de motifs (très complexes). Pour apprendre à faire quoi que ce soit, l’IA a besoin de tonnes de données antérieures avec des résultats connus. Par exemple, cela pourrait être la base de données de Jeopardy historique! » questions, ainsi que les bonnes réponses. Alternativement, une simulation informatique complète peut être utilisée pour entraîner le modèle, comme c’est le cas pour Go et les échecs. Sans l’une de ces deux approches, l’IA ne peut pas faire grand-chose. Cela explique pourquoi l’IA ne peut à elle seule prédire la propagation de nouvelles pandémies: il n’y a pas de base de données sur les épidémies antérieures de COVID-19 (comme c’est le cas pour la grippe).

Ainsi, en adoptant l’approche sceptique de l’IA, il est essentiel de se demander si une entreprise a dépensé le temps et l’argent pour créer un ensemble de données complet pour apprendre efficacement la tâche en question. Malheureusement, tout le monde ne prend pas le chemin du scepticisme. VentureBeat a régurgité les affirmations de Baidu selon lesquelles l’IA peut être utilisée avec l’imagerie thermique infrarouge pour voir »la fièvre qui est un symptôme de COVID-19. Athena Security, qui vend un logiciel d’analyse vidéo, a également affirmé avoir adapté son système d’IA pour détecter la fièvre à partir des données d’imagerie thermique. Vice, Fast Company et Forbes ont récompensé les affirmations de l’entreprise, qui comprenaient une fausse démonstration de logiciel, avec une presse gratuite.
Pour même tenter cela, les entreprises auraient besoin de collecter des données d’imagerie thermique complètes auprès de personnes tout en prenant simultanément leur température avec un thermomètre conventionnel. En plus d’atteindre un échantillon diversifié en termes d’âge, de sexe, de taille et d’autres facteurs, cela nécessiterait également que beaucoup de ces personnes souffrent réellement de fièvre – le résultat qu’elles tentent de prédire. Il renforce la crédibilité que, au milieu d’une pandémie mondiale, les entreprises collectent des données auprès de populations importantes de personnes fiévreuses. Bien qu’il existe d’autres moyens possibles d’atteindre des ensembles de données préexistants, la remise en question des sources de données est toujours un moyen significatif d’évaluer la viabilité d’un système d’IA.
3. Ne faites pas confiance à la précision de l’IA
La société Alibaba affirme qu’elle peut utiliser l’IA sur l’imagerie CT pour diagnostiquer COVID-19, et maintenant Bloomberg rapporte que la société propose gratuitement ce logiciel de diagnostic aux pays européens. Il y a un certain attrait à l’idée. Actuellement, le diagnostic de COVID-19 se fait par un processus appelé réaction en chaîne par polymérase (PCR), qui nécessite un équipement spécialisé. Y compris le temps d’expédition, cela peut facilement prendre plusieurs jours, alors qu’Alibaba dit que son modèle est beaucoup plus rapide et précis à 96%.
Cependant, il n’est pas clair que ce nombre d’exactitude soit fiable. Un secret mal gardé des praticiens de l’IA est que la précision de 96% est étrangement élevée pour tout problème d’apprentissage automatique. S’il n’est pas géré avec soin, un algorithme d’IA ira à des longueurs extraordinaires pour trouver des modèles dans les données qui sont associés au résultat qu’il essaie de prédire. Cependant, ces modèles peuvent être totalement absurdes et ne semblent fonctionner que pendant le développement. En fait, un nombre de précision gonflé peut en fait être un signe important qu’un modèle d’IA ne sera pas efficace dans le monde. Le fait qu’Alibaba affirme que son modèle fonctionne aussi bien sans mise en garde ni autocritique est suspect à première vue.
Un nombre de précision gonflé peut en fait être un signe important qu’un modèle d’IA ne sera pas efficace dans le monde. »
De plus, la précision à elle seule n’est pas suffisante pour évaluer la qualité des prévisions. Imaginez si 90% des personnes dans les données d’entraînement étaient en bonne santé et les 10% restants avaient COVID-19. Si le modèle prédisait correctement toutes les personnes en bonne santé, une précision de 96% pourrait toujours être vraie, mais il manquerait toujours au modèle 40% des personnes infectées. C’est pourquoi il est important de connaître également la sensibilité du modèle », qui est le pourcentage de prédictions correctes pour les individus qui ont COVID-19 (plutôt que pour tout le monde). Ceci est particulièrement important lorsqu’un type de prédiction erronée est pire que l’autre, ce qui est le cas actuellement. Il est bien pire de suggérer à tort qu’une personne atteinte de COVID-19 n’est pas malade (ce qui pourrait lui permettre de continuer à infecter d’autres personnes) que de suggérer qu’une personne en bonne santé a COVID-19.
Globalement, c’est une tâche qui semble pouvoir être effectuée par l’IA, et cela pourrait l’être. De nouvelles recherches suggèrent que cette approche est prometteuse, mais le débat n’est pas réglé Pour l’instant, l’American College of Radiology dit que les résultats sur l’imagerie thoracique dans COVID-19 ne sont pas spécifiques et se chevauchent avec d’autres infections », et qu’il devrait ne pas être utilisé comme test de première ligne pour diagnostiquer COVID-19. » Tant que des preuves plus solides ne seront pas présentées et que les modèles d’IA ne seront pas validés en externe, les prestataires médicaux ne devraient pas envisager de modifier leurs flux de travail de diagnostic, en particulier pas en cas de pandémie.
4. Le déploiement dans le monde réel dégrade les performances de l’IA
Les circonstances dans lesquelles un système d’IA est déployé peuvent également avoir d’énormes implications sur sa valeur réelle. Lorsque les modèles d’IA quittent le développement et commencent à faire des prédictions du monde réel, ils dégradent presque toujours les performances. Dans l’évaluation des tomodensitogrammes, un modèle qui peut faire la différence entre les personnes en bonne santé et celles avec COVID-19 pourrait commencer à échouer lorsqu’il rencontre des patients malades de la grippe régulière (et c’est toujours la saison de la grippe aux États-Unis, après tout). Une baisse de 10% de précision ou plus pendant le déploiement ne serait pas inhabituelle.
Dans un article récent sur le diagnostic des grains de beauté malins atteints d’IA, les chercheurs ont remarqué que leurs modèles avaient appris que les dirigeants étaient fréquemment présents sur les images des grains de beauté connus pour être malins. Donc, bien sûr, le modèle a appris que les images sans règles étaient plus susceptibles d’être bénignes. Il s’agit d’un modèle d’apprentissage qui conduit à l’apparition d’une grande précision lors du développement du modèle, mais il provoque une forte baisse des performances lors de l’application réelle dans un environnement de soins de santé. C’est pourquoi la validation indépendante est absolument essentielle avant d’utiliser de nouveaux systèmes d’IA à fort impact.
Lorsque les modèles d’IA quittent le développement et commencent à faire des prédictions du monde réel, ils dégradent presque toujours leurs performances. »
Cela devrait engendrer encore plus de scepticisme quant aux affirmations selon lesquelles l’IA peut être utilisée pour mesurer la température corporelle. Même si une entreprise a investi dans la création de cet ensemble de données, comme indiqué précédemment, la réalité est beaucoup plus compliquée qu’un laboratoire. Bien que la mesure de la température centrale à partir des mesures thermiques du corps soit imparfaite même dans des conditions de laboratoire, les facteurs environnementaux rendent le problème beaucoup plus difficile. L’approche nécessite une caméra infrarouge pour obtenir une vue claire et précise de la face intérieure, et elle est affectée par l’humidité et la température ambiante de la cible. Bien qu’il soit de plus en plus efficace, les Centers for Disease Control and Prevention soutiennent toujours que l’imagerie thermique ne peut pas être utilisée seule – un deuxième test de confirmation avec un thermomètre précis est nécessaire.
5. La plupart des prédictions doivent permettre à une intervention d’avoir vraiment de l’importance
Dans les applications à enjeux élevés de l’IA, elle nécessite généralement une prédiction qui n’est pas seulement exacte, mais aussi qui permet de manière significative une intervention par un humain. Cela signifie qu’une confiance suffisante dans le système d’IA est nécessaire pour prendre des mesures, ce qui pourrait impliquer de hiérarchiser les soins de santé sur la base des tomodensitogrammes ou d’allouer des fonds d’urgence aux zones où la modélisation montre la propagation du COVID-19.
Avec l’imagerie thermique pour la détection de la fièvre, une intervention pourrait impliquer l’utilisation de ces systèmes pour bloquer l’entrée dans les aéroports, les supermarchés, les pharmacies et les espaces publics. Mais les preuves montrent que jusqu’à 90% des personnes signalées par l’imagerie thermique peuvent être de faux positifs. Dans un environnement où les personnes fébriles savent qu’elles sont censées rester à la maison, ce ratio pourrait être beaucoup plus élevé. Ainsi, tout en empêchant les personnes fiévreuses (et potentiellement COVID-19) de permettre la transmission communautaire est un objectif significatif, il doit y avoir une volonté d’établir des points de contrôle et un test de confirmation, ou risquer de contraindre des segments importants de la population.
Cela devrait être une considération constante pour la mise en œuvre des systèmes d’IA, en particulier ceux utilisés dans la gouvernance. Par exemple, les systèmes de détection de fraude à l’IA utilisés par l’IRS et les Centers for Medicare et Medicaid Services ne déterminent pas à eux seuls les actes répréhensibles; ils priorisent plutôt les retours et les demandes de vérification par les enquêteurs. De même, le célèbre modèle d’IA qui identifie les maisons de Chicago avec de la peinture au plomb ne fait pas lui-même le dernier appel, mais marque plutôt la résidence des inspecteurs de peinture au plomb.
6. L’IA est bien meilleure dans les moindres détails que dans les grands événements rares
Wired a publié en janvier un article intitulé An AI Epidemiologist Sent the First Warnings of the Wuhan Virus »sur un avertissement émis le 31 décembre par la société de surveillance des maladies infectieuses, BlueDot. Un article de blog a même déclaré que la société avait prédit l’épidémie avant qu’elle ne se produise. »Cependant, ce n’est pas vraiment vrai. Des rapports suggèrent que les autorités chinoises connaissaient le coronavirus par des tests en laboratoire dès le 26 décembre. De plus, les médecins de Wuhan diffusaient leurs préoccupations en ligne (malgré la censure du gouvernement chinois) et le Programme de surveillance des maladies émergentes, géré par des volontaires humains, a mis une notification le 30 décembre.
Cela dit, l’approche adoptée par BlueDot et des initiatives similaires comme HealthMap au Boston Children’s Hospital ne sont pas déraisonnables. Les deux équipes sont un mélange de scientifiques des données et d’épidémiologistes, et elles parcourent les analyses des soins de santé et les articles de presse à travers le monde et dans de nombreuses langues afin de trouver de nouvelles éclosions potentielles de maladies infectieuses. Il s’agit d’un cas d’utilisation plausible pour l’apprentissage automatique et le traitement du langage naturel et c’est un outil utile pour aider les observateurs humains. Ainsi, le battage médiatique, dans ce cas, ne vient pas du scepticisme quant à la faisabilité de l’application, mais plutôt du type spécifique de valeur qu’elle apporte.
Il est peu probable que l’IA renforce la compréhension contextuelle pour faire la distinction entre une nouvelle flambée mais gérable et une pandémie émergente de proportions mondiales. »
Même au fur et à mesure que ces systèmes s’améliorent, il est peu probable que l’IA renforce la compréhension contextuelle pour faire la distinction entre une nouvelle épidémie, mais gérable, et une pandémie émergente de proportions mondiales. L’IA peut difficilement être blâmée. Il est très difficile de prédire des événements rares, et la dépendance de l’IA à l’égard des données historiques ne lui est d’aucune utilité. Cependant, l’IA offre un peu de valeur à l’extrémité opposée du spectre, fournissant des détails infimes.
Par exemple, la semaine dernière, le gouverneur de la Californie, Gavin Newsom, a explicitement loué le travail de BlueDot pour modéliser la propagation du coronavirus à des codes postaux spécifiques, en incorporant des données sur les schémas de vol. Cela permet un approvisionnement relativement précis du financement, des fournitures et du personnel médical en fonction du niveau d’exposition dans chaque code postal. Cela révèle l’une des grandes forces de l’IA: sa capacité à faire rapidement des prédictions individualisées alors qu’il serait beaucoup plus difficile de le faire individuellement. Bien entendu, les prédictions individualisées nécessitent des données individualisées, ce qui peut entraîner des conséquences inattendues.
7. Il y aura des conséquences inattendues
Les implémentations de l’IA ont tendance à avoir des conséquences troublantes de second ordre en dehors de leur domaine de compétence exact. Par exemple, la consolidation du pouvoir de marché, l’accumulation de données non sécurisées et les problèmes de surveillance sont des sous-produits très courants de l’utilisation de l’IA. Dans le cas de l’IA pour lutter contre COVID-19, les problèmes de surveillance sont omniprésents. En Corée du Sud, les voisins des patients confirmés au COVID-19 ont reçu des informations sur les voyages et les déplacements de cette personne Taïwan, qui à bien des égards a réagi de manière proactive au coronavirus, a utilisé des données de téléphone portable pour surveiller les personnes qui avaient été assignées à rester dans leurs maisons. Israël et l’Italie vont dans la même direction. La technologie de contrôle social déployée en Chine est une préoccupation exceptionnelle, qui utilise nébuleusement l’IA pour approuver ou refuser individuellement l’accès à l’espace public.
L’action du gouvernement qui restreint les libertés civiles en cas d’urgence (et probablement après) n’est qu’une partie du problème. Les incitations que les marchés créent peuvent également conduire à une atteinte à long terme à la vie privée. À l’heure actuelle, Clearview AI et Palantir font partie des entreprises qui présentent des outils de surveillance à grande échelle au gouvernement fédéral. Il s’agit de la même IA Clearview qui a gratté le Web pour créer une énorme base de données de visages (et contraire à l’éthique), et cela en réaction à une demande existante des services de police d’identifier les suspects avec une reconnaissance faciale basée sur l’IA. Si les gouvernements et les entreprises continuent de signaler qu’ils utiliseraient des systèmes invasifs, les start-up ambitieuses et sans scrupules trouveront de nouvelles façons inventives de collecter plus de données que jamais pour répondre à cette demande.
8. N’oubliez pas: l’IA sera biaisée
Dans les nouvelles approches de l’utilisation de l’IA dans des circonstances à enjeux élevés, le biais devrait être une préoccupation sérieuse. Le biais dans les modèles d’IA entraîne des estimations biaisées dans différents sous-groupes, tels que les femmes, les minorités raciales ou les personnes handicapées. À son tour, cela conduit souvent à des résultats discriminatoires, car les modèles d’IA sont souvent considérés comme objectifs et neutres.
Bien que les rapports d’enquête et la recherche scientifique aient sensibilisé à de nombreux cas de biais liés à l’IA, il est important de réaliser que le biais lié à l’IA est plus systémique qu’anecdotique. Un sceptique averti en matière d’IA devrait conserver l’hypothèse par défaut selon laquelle les modèles d’IA sont biaisés, sauf preuve contraire.
Un sceptique averti en matière d’IA devrait conserver l’hypothèse par défaut selon laquelle les modèles d’IA sont biaisés, sauf preuve contraire. »
Par exemple, un document préimprimé suggère qu’il est possible d’utiliser des biomarqueurs pour prédire le risque de mortalité des patients COVID-19 de Wuhan. Cela pourrait alors être utilisé pour prioriser les soins pour les personnes les plus à risque – un noble objectif. Cependant, il existe une myriade de sources de biais potentiels dans ce type de prédiction. Les associations biologiques entre la race, le sexe, l’âge et ces biomarqueurs pourraient conduire à des estimations biaisées qui ne représentent pas le risque de mortalité. Des caractéristiques comportementales non mesurées peuvent également entraîner des biais. Il est raisonnable de soupçonner que les antécédents de tabagisme, plus fréquents chez les hommes chinois et un facteur de risque de décès par COVID-19, pourraient biaiser le modèle en surestimant largement le risque de décès chez les hommes.
Surtout pour les modèles impliquant des humains, il y a tellement de sources potentielles de biais qu’ils ne peuvent être écartés sans enquête. Si un modèle d’IA n’a pas de biais documentés et évalués, il devrait accroître la certitude d’un sceptique qu’ils restent cachés, non résolus et pernicieux.
L’avenir des systèmes d’IA est plus prometteur
Bien que cet article adopte une perspective délibérément sceptique, l’impact futur de l’IA sur bon nombre de ces applications est brillant. Par exemple, alors que le diagnostic de COVID-19 avec des tomodensitogrammes est d’une valeur discutable en ce moment, l’impact de l’IA sur l’imagerie médicale est substantiel Les applications émergentes peuvent évaluer la malignité des anomalies tissulaires, étudier les structures squelettiques et réduire le besoin d’envahissement biopsies.
D’autres applications sont très prometteuses, bien qu’il soit trop tôt pour dire si elles auront un impact significatif sur cette pandémie. Par exemple, les médicaments conçus par l’IA commencent tout juste des essais sur l’homme. L’utilisation de l’IA pour résumer des milliers de documents de recherche peut également accélérer les découvertes médicales concernant COVID-19.
L’IA est une technologie largement applicable, mais ses avantages doivent être couverts par une compréhension réaliste de ses limites. À cette fin, l’objectif de cet article n’est pas de dénigrer largement les contributions que l’IA peut apporter, mais plutôt d’encourager un œil critique et perspicace pour les circonstances spécifiques dans lesquelles l’IA peut être significative.

Commentaires fermés sur Un guide pour un scepticisme sain de l’intelligence artificielle et du coronavirus
Nov 26

Des bleus dans le bleu du ciel

La montée en flèche a toujours été une aspiration pour les gens. Et comme cela a vraiment été rendu possible grâce aux technologies, les gens ont maintenant constaté que la flambée n’était tout simplement pas suffisante, et ils aimeraient s’amuser dans les cieux. Et cela a produit des vols aériens acrobatiques. La 1ère étape significative en direction de la fuite de l’homme a eu lieu le 4 juin 1783, lorsque Joseph (1740-1810) et Etienne (1745-1799) Montgolfier ont créé une manifestation médicale publique sur la grande place d’Annonay, petite ville du sud région de France proche de Lyon. Ils ont gonflé un monde entier en tissu protégé contre les documents de 35 pieds (10,7 m), qui a flotté jusqu’à environ 6 000 pieds (1829 m) et a atterri à un mile plus 50% (2,4 km). Même s’il n’a fallu aucun voyageur, les Montgolfier expérimentés ont réussi à obtenir le premier voyage en ballon à grande échelle de tous les temps, rapprochant encore davantage le voyage humain de la réalité.Les frères Montgolfier étaient en fait des hommes d’affaires de milieu de gamme, Air Dogfight pas des professionnels. Leur père était vraiment une société de journaux aisée qui soutenait les dabblings scientifiques de ses fils. Ils sont devenus compte tenu des difficultés du vol aérien en 1782. Leurs expériences avec des versions de soie et de morceaux de papier ont conduit ces personnes à conclure que l’hydrogène ne pouvait pas vraiment être compris assez longtemps pour permettre le vol. Néanmoins, ils ont réussi à découvrir que le flux d’air chauffé est devenu suffisamment raréfié (beaucoup moins épais) pour soulever un ballon et qu’il n’a pas non plus réussi à se diffuser à travers son traitement. Ils ont cru à tort que les cigarettes fumées du feu, et non l’oxygène réchauffé, présentaient le potentiel de croissance et ont investi des semaines à bricoler plusieurs types d’énergie pour obtenir «l’éclairage approprié», décidant finalement d’un mélange de paille trempée et de laine. Ainsi, deux débutants en médecine avaient accidentellement fourni une stratégie à la question de l’haltérophilie d’un énorme engin sur le sol pour avoir une durée prolongée.Les Montgolfiers ont immédiatement notifié l’établissement technologique de leur réalisation et Etienne s’est rendu à Paris à la recherche d’un don à protéger. leurs coûts. La cellule familiale espérait également que leur reconnaissance se traduirait par des contrats d’autorité rentables en ce qui concerne leur organisation papier. Les rapports de l’accomplissement galvanisé l’argent. Professeur de sciences bien connu, Jacques-Alexandre-César Charles (1746-1823) a décidé de se mesurer aux Montgolfier pour tenter d’être le premier à réaliser le voyage humain. Assistés de deux créateurs d’instruments de musique intelligents, les frères A.J. et M.N. Robert, Charles s’est proposé pour générer un ballon à hydrogène réalisable.Charles ainsi que le Roberts sont devenus populaires en fabriquant suffisamment d’hydrogène pour avoir un vol sans pilote de Paris le 27 août 1783, bien qu’ils aient essentiel cinquante pour cent de beaucoup de dépôts d’acier, un quart d’une tonne de solution acide, et de nombreuses fois pour y parvenir. Ils ont également surveillé pour fabriquer un sac de taffetas résistant aux problèmes absorbé dans une peinture en caoutchouc pour retenir le gaz. Les autres contributions de Charles à la croissance des ballons à hydrogène sont incroyablement importantes: la collecte des dispositifs de contrôle pour libérer le carburant permettant une descente instantanée (dans le ballon à air chaud, la descente n’a lieu que lorsque l’air se refroidit); l ‘«appendice» (une ouverture dans laquelle l’essence s’élargissant à de meilleures altitudes peut s’échapper rapidement avant d’éclater le ballon); l’utilisation de sacs à main de sable pour le ballast et d’un grappin (ancre) pour aider à obtenir; la « nacelle » ou télécabine (une nacelle en osier s’est arrêtée sous le ballon) Maintenant, nous avons été vraiment significativement tout de suite alors que nous apprécions la voltige depuis le ciel.

Commentaires fermés sur Des bleus dans le bleu du ciel
Nov 19

Un pas dans la mauvaise direction

La réunion de cette semaine du Fonds monétaire international à Washington sera probablement une répétition du fiasco de Seattle ». Une alliance impie d’activistes de la justice sociale et de champions du protectionnisme crée la confusion. Les critiques affirment que le FMI a perdu son chemin et doit être réformé. Le récent rapport de la Commission Meltzer a été conçu pour résoudre ce problème, mais n’a pas produit un ensemble convaincant de propositions.
Beaucoup de ses idées créent, plutôt que résolvent, des problèmes. En ce qui concerne la réduction de la dette, la commission recommande une annulation complète des dettes des pays les plus pauvres du monde, la plupart d’entre eux en Afrique. Les partisans du marché et les militants sociaux ont salué la proposition comme révolutionnaire. Mais une annulation inconditionnelle ne favorisera ni la croissance ni les pauvres.
Comme le souligne le rapport, aucun pays ne se développera sans une bonne gouvernance: l’État de droit, les droits de propriété et un leadership public non corrompu. Cela est aussi vrai au Congo, en Zambie et au Nigéria que partout ailleurs. Sans norme minimale de bonne gouvernance, une annulation de dette ne financera qu’un nouveau cycle de gaspillage et de corruption.
Ironiquement, cela fera plus pour les bilans des organisations internationales – à qui une grande partie de la dette est due – que pour les pauvres du monde. Il serait bien mieux et plus compatissant », de lier la réduction de la dette à des engagements sérieux, tels que la fourniture de services sociaux fondamentaux.

Cette politique éviterait l’aléa moral de l’argent facile », que le groupe Meltzer attribue au FMI. Cela protégerait les pauvres de la corruption de leurs propres gouvernements; et cela rendrait les institutions financières plus responsables des prêts qui n’ont pas atteint leurs objectifs.
En ce qui concerne les prêts de la Banque mondiale aux économies de marché émergentes à revenu intermédiaire, la commission recommande à la Banque mondiale et aux banques régionales, telles que la Banque interaméricaine de développement, de supprimer progressivement les prêts aux pays notés investment grade.
Des pays comme le Brésil, le Mexique, la Thaïlande et l’Afrique du Sud entrent dans cette catégorie: ils peuvent emprunter sur les marchés de capitaux. Mais les taux d’intérêt qu’ils paient sont élevés et volatils, et un accès fiable au crédit privé n’est en aucun cas assuré. Lorsque les Russes ont fait défaut sur leur dette intérieure en 1998, même les pays d’Amérique latine les plus solvables n’ont pas pu emprunter, sauf, bien sûr, auprès de la Banque mondiale et de la BID.
Lorsque la tourmente du marché mondial oblige ces pays à réduire les dépenses publiques pour rétablir la crédibilité auprès des prêteurs privés, ce sont les banques internationales qui fournissent des crédits pour soutenir leurs programmes d’éducation et de santé.
De nombreux pays en développement ne peuvent pas émettre de dette pour des durées supérieures à cinq ans, car les marchés internationaux de capitaux n’ont aucun appétit pour la dette à long terme des marchés émergents. Pourtant, les investissements dans le développement – dans les écoles et les infrastructures – ont des périodes de gestation beaucoup plus longues.
L’idée de la Commission de restreindre les prêts des banques de développement pourrait aider les banques internationales privées dans leur quête de profits à court terme: leurs activités de prêt bénéficieront du retrait du FMI. Mais cela mettrait en péril l’effort à long terme de création d’institutions dans les pays qui n’ont pas encore atteint un développement de marché durable.
Sur la question des prêts du FMI aux pays à faible revenu, la commission fait écho à une proposition de Laurence Summers, la secrétaire américaine au Trésor. Le FMI, selon lui, devrait reprendre son activité principale: prêter aux pays connaissant des problèmes de paiement et de liquidité, laisser l’aide au développement à long terme et la réduction de la pauvreté à la Banque mondiale et aux banques régionales de développement.
C’est une bonne idée. Mais il peut y avoir des compromis complexes entre la stabilité à court terme et le développement à long terme. L’insistance du FMI sur les coupes budgétaires pour résoudre les problèmes de liquidité à court terme et calmer les investisseurs et les déposants paniqués s’est trop souvent faite aux dépens d’investissements publics stables.
Sur ce point, l’appel de la commission à des taux d’intérêt de pénalité sur les prêts de crise à durée limitée est un pas dans la mauvaise direction. Il éliminera le soutien financier et les conseils aux pays qui ont du mal à surmonter les crises de courte durée.
Au lieu d’être mis au rebut, les prêts à court terme du FMI devraient être subventionnés, éventuellement par des prêts à moyen terme et des subventions administrées par les banques de développement. Au lieu de cela, dans un effort apparent pour dissoudre le FMI, la commission semble prête à abandonner complètement les pays à faible revenu.
Les membres de la Commission Meltzer et les manifestants sont unis dans leur appel à une réforme fondamentale des institutions financières internationales. Mais le développement est compliqué. Un argument élégant d’une part, et des manifestations de rue d’autre part, aussi bien intentionnées soient-elles, ne doivent pas l’emporter sur le réalisme.

Commentaires fermés sur Un pas dans la mauvaise direction
Sep 13

Les programmes des ordinateurs

Internet ne peut s’améliorer que grâce au codage. Mais on peut légitimement demander comment fonctionne la programmation. C est en fait un langage de programmation informatique créé au début des années 1970 par l’informaticien américain Dennis M. Ritchie chez Bell Labs (anciennement AT&T Bell Laboratories). C a été conçu comme un langage minimaliste pour être utilisé dans l’écriture de systèmes d’exploitation pour mini-ordinateurs, comme le DEC PDP 7, qui avait des souvenirs limités par rapport aux ordinateurs centraux de l’époque. Le vocabulaire a été créé tout au long de 1969-73, parallèlement à la croissance et au développement précoces du système d’exploitation UNIX. C’était selon le CPL (Combined Coding Language), qui avait d’abord été condensé dans le langage de programmation B – un vocabulaire de programmation informatique supprimé – développé en 1969-70 par Ken Thompson, un informaticien américain avec un collègue. de Ritchie. Ritchie a ensuite réécrit et réparé les fonctions de CPL pour produire du C et a finalement réécrit le système d’exploitation UNIX dans le nouveau vocabulaire. Les langages machine et les langages de configuration sont « de bas niveau », ce qui oblige un développeur à gérer clairement la plupart des attributs idiosyncratiques d’un ordinateur en matière d’espace et de procédure de stockage d’informations. En comparaison, les langages de niveau supérieur protègent un développeur contre le stress lié à de telles considérations et fournissent une notation plus facile à composer et à lire par les développeurs. Parce que le programme UNIX a été amélioré, un certain nombre de modifications se sont produites en C entre 1977 et 1979. Pendant ce temps, une description du langage est devenue largement disponible au moyen d’une réserve, The C Programming Vocabulary (1978), par Brian W. Kernighan et Ritchie. Au milieu des années 80, il est devenu important de créer une norme officielle pour le C, EUNIDA car il était utilisé dans des emplois susceptibles de faire l’objet d’accords commerciaux et gouvernementaux. En 1983, le Nationwide Specifications Institute (ANSI) des États-Unis a mis en place un comité qui a encore amendé et standardisé le vocabulaire. Depuis lors, C a été appelé ANSI Regular C, et il continue d’être bien connu dans le monde des systèmes d’exploitation de type UNIX. C est également devenu l’un des dialectes de programmation les plus courants utilisés pour créer d’autres logiciels et applications. Les descendants de C incluent Concurrent C, Objective C, C*, C# et le C largement utilisé. Le langage de codage Java a été introduit en 1994 en tant que sous-ensemble simplifié de C pour le déploiement sur Internet et pour une utilisation dans des appareils portables avec une mémoire restreinte ou des capacités de gestion limitées. Un vocabulaire d’équipement se compose des règles numériques pour les opérations que l’ordinateur personnel particulier peut effectuer immédiatement. Les codes sont des chaînes de 0 et de 1, ou des nombres binaires (« bits »), qui sont fréquemment transformés à la fois en hexadécimal et en hexadécimal (fondation 16) pour une visualisation et un ajustement humains. Les instructions du langage de l’appareil utilisent généralement certains bits pour représenter des opérations, telles que l’inclusion, plus certains pour représenter des opérandes, ou peut-être l’emplacement du prochain coaching. Le langage machine est difficile à lire et à écrire, car il ne ressemble pas à la notation mathématique conventionnelle ou au vocabulaire humain, et ses codes varient d’un ordinateur personnel à l’autre. Les dialectes algorithmiques sont conçus pour transmettre des calculs numériques ou symboliques. Ils pourraient transmettre des procédures algébriques dans une notation similaire aux mathématiques et permettre l’utilisation de sous-programmes qui regroupent des opérations largement utilisées pour la réutilisation. Ils étaient les tout premiers dialectes de degré supérieur. Le World Wide Web est un système permettant d’afficher du texte, des graphiques et du son récupérés sur Internet sur un écran d’ordinateur personnel. Chaque dispositif de récupération est considéré comme une page Web, et ces pages Web contiennent souvent des « liens » qui permettent de récupérer des pages connexes. HTML (langage de balisage hypertexte) est le langage de balisage pour l’encodage des pages Web. Il a été conçu par Tim Berners-Lee au laboratoire de physique nucléaire du CERN en Suisse dans les années 1980 et est basé sur une DTD SGML. Les étiquettes de balisage de code HTML spécifient les composants d’enregistrement tels que les en-têtes, les paragraphes et les meubles. Ils marquent un document pour le montrer par un programme d’ordinateur personnel connu sous le nom de navigateur Internet. Le navigateur interprète les balises, affichant les titres, les paragraphes et les meubles à l’intérieur d’un design adapté à la dimension de l’écran d’affichage et aux polices de caractères disponibles.

Commentaires fermés sur Les programmes des ordinateurs
Sep 09

L’explosion de l’internet

Le Web est né du travail de mise en relation de différents réseaux de recherche aux États-Unis et en Europe. Initialement, la DARPA a mis en place un logiciel pour rechercher l’interconnexion de «systèmes hétérogènes». Ce programme, appelé Internetting, reposait sur l’idée nouvellement lancée d’un réseau de structures ouvertes, dans lequel les systèmes dotés d’interfaces régulières définies seraient connectés par des « passerelles ». Une illustration d’exploitation montrant le concept a été prévue. Pour s’assurer que l’idée fonctionne, un nouveau protocole devait être conçu et créé ; en effet, un système de structures était nécessaire. En 1974, Vinton Cerf, alors à l’université de Stanford en Californie, et cet auteur, alors à la DARPA, ont collaboré aux articles qui décrivaient initialement ce type de processus et d’architecture de programme, à savoir le protocole de contrôle de transmission (TCP), qui autorisait différents types de machines sur des systèmes partout dans le monde pour acheminer et assembler des paquets de données. TCP, qui comprenait à l’origine le processus Internet (IP), un mécanisme d’adressage mondial qui permettait aux routeurs d’obtenir des paquets d’informations pour leur plus grand emplacement, a formé le protocole TCP/IP régulier, qui a été adopté par la division américaine de la défense en 1980. Dans les années 1980, « l’architecture ouverte » issue de l’approche des adresses TCP/IP a été adoptée et soutenue par de nombreux autres experts et finalement par des technologues et des entrepreneurs du monde entier. Dans les années 1980, d’autres organismes gouvernementaux américains étaient fortement impliqués dans la mise en réseau, notamment la Nationwide Science Foundation (NSF), le ministère de l’Énergie, ainsi que la National Aeronautics and Space Administration (NASA). Alors que la DARPA avait joué un rôle déterminant dans la création d’une édition à petite échelle d’Internet parmi ses chercheurs, la NSF a traité avec la DARPA pour développer l’accès à l’ensemble du quartier scientifique et éducatif et également pour faire de l’adresse TCP/IP le type de chaque étude financée par le gouvernement fédéral. systèmes. En 1985-86, la NSF a financé les cinq premiers centres de calcul intensif à l’université de Princeton, à l’université de Pittsburgh, au College of Ca, à San Diego, en Californie, au College of Illinois et à l’université Cornell. Dans les années 1980, la NSF a également financé le développement et la procédure du NSFNET, un réseau national de « colonne vertébrale » pour connecter ces centres. Depuis la fin des années 1980, le réseau fonctionnait à des millions de pièces par seconde. La NSF a également financé divers systèmes locaux et régionaux à but non lucratif pour connecter d’autres clients au NSFNET. Quelques réseaux industriels ont également commencé dans les années 1980 tardives; d’autres personnes en sont rapidement devenues membres, et le Commercial Internet Exchange (CIX) a été formé pour permettre le trafic de transport entre les réseaux commerciaux qui, autrement, n’auraient pas été autorisés sur le réseau fédérateur NSFNET. En 1995, juste après un examen approfondi de la situation, la NSF a décidé que l’aide des installations NSFNET n’était plus nécessaire, car de nombreux fournisseurs commerciaux étaient désormais prêts à répondre aux exigences du quartier de la recherche, et son aide a été retirée. . Pendant ce temps, la NSF a favorisé une variété agressive de dorsales Internet commerciales connectées les unes aux autres par le biais de facteurs d’accessibilité réseau (NAP). Depuis l’origine de votre Internet au début des années 70, le contrôle sur celui-ci est progressivement passé de l’intendance du gouvernement fédéral à la participation du secteur privé et enfin à la garde privée avec la surveillance et l’abstention du gouvernement. Aujourd’hui, un nombre vaguement organisé de plusieurs milliers de personnes intéressées, appelé Internet Engineering Task Pressure, participe à un processus de développement de base pour les normes Web. Les normes Web sont maintenues par Internet Culture à but non lucratif, un organisme international dont le siège social est situé à Reston, en Virginie. La Web Company for Designated Names and Figures (ICANN), une autre organisation privée à but non lucratif, supervise divers éléments du plan concernant les noms de domaine et les figures Web. L’augmentation des services et programmes Web commerciaux a contribué à alimenter une commercialisation rapide à partir du Web. Cette tendance était également le résultat d’un certain nombre d’autres facteurs. Un seul aspect essentiel était le développement de l’ordinateur individuel ainsi que du poste de travail au début des années 1980 – une amélioration qui à son tour a été alimentée par une amélioration sans précédent de la technologie des circuits intégrés ainsi que par une baisse rapide des coûts informatiques. Un autre aspect, qui a pris une importance croissante, SEO Lille a été l’apparition d’Ethernet et d’autres « réseaux locaux » pour lier des ordinateurs personnels par hyperlien. Mais d’autres forces avaient également été à l’œuvre. Suite à la restructuration d’AT&T en 1984, NSF avait profité de plusieurs nouveaux choix pour les services de dorsale électronique de niveau national pour votre NSFNET. En 1988, la Corporation for National Study Projects a obtenu l’autorisation de mener une expérience de connexion d’un service de courrier électronique professionnel (MCI Mail) à Internet. Cette application était la première connexion Web à un fournisseur industriel qui ne faisait pas également partie de la communauté d’étude. L’approbation a été rapidement mise en œuvre pour permettre l’accès à d’autres fournisseurs de courrier électronique, et le Web a commencé son explosion initiale de visiteurs.

Commentaires fermés sur L’explosion de l’internet