Archive for septembre, 2021

Sep 13

Les programmes des ordinateurs

Internet ne peut s’améliorer que grâce au codage. Mais on peut légitimement demander comment fonctionne la programmation. C est en fait un langage de programmation informatique créé au début des années 1970 par l’informaticien américain Dennis M. Ritchie chez Bell Labs (anciennement AT&T Bell Laboratories). C a été conçu comme un langage minimaliste pour être utilisé dans l’écriture de systèmes d’exploitation pour mini-ordinateurs, comme le DEC PDP 7, qui avait des souvenirs limités par rapport aux ordinateurs centraux de l’époque. Le vocabulaire a été créé tout au long de 1969-73, parallèlement à la croissance et au développement précoces du système d’exploitation UNIX. C’était selon le CPL (Combined Coding Language), qui avait d’abord été condensé dans le langage de programmation B – un vocabulaire de programmation informatique supprimé – développé en 1969-70 par Ken Thompson, un informaticien américain avec un collègue. de Ritchie. Ritchie a ensuite réécrit et réparé les fonctions de CPL pour produire du C et a finalement réécrit le système d’exploitation UNIX dans le nouveau vocabulaire. Les langages machine et les langages de configuration sont « de bas niveau », ce qui oblige un développeur à gérer clairement la plupart des attributs idiosyncratiques d’un ordinateur en matière d’espace et de procédure de stockage d’informations. En comparaison, les langages de niveau supérieur protègent un développeur contre le stress lié à de telles considérations et fournissent une notation plus facile à composer et à lire par les développeurs. Parce que le programme UNIX a été amélioré, un certain nombre de modifications se sont produites en C entre 1977 et 1979. Pendant ce temps, une description du langage est devenue largement disponible au moyen d’une réserve, The C Programming Vocabulary (1978), par Brian W. Kernighan et Ritchie. Au milieu des années 80, il est devenu important de créer une norme officielle pour le C, EUNIDA car il était utilisé dans des emplois susceptibles de faire l’objet d’accords commerciaux et gouvernementaux. En 1983, le Nationwide Specifications Institute (ANSI) des États-Unis a mis en place un comité qui a encore amendé et standardisé le vocabulaire. Depuis lors, C a été appelé ANSI Regular C, et il continue d’être bien connu dans le monde des systèmes d’exploitation de type UNIX. C est également devenu l’un des dialectes de programmation les plus courants utilisés pour créer d’autres logiciels et applications. Les descendants de C incluent Concurrent C, Objective C, C*, C# et le C largement utilisé. Le langage de codage Java a été introduit en 1994 en tant que sous-ensemble simplifié de C pour le déploiement sur Internet et pour une utilisation dans des appareils portables avec une mémoire restreinte ou des capacités de gestion limitées. Un vocabulaire d’équipement se compose des règles numériques pour les opérations que l’ordinateur personnel particulier peut effectuer immédiatement. Les codes sont des chaînes de 0 et de 1, ou des nombres binaires (« bits »), qui sont fréquemment transformés à la fois en hexadécimal et en hexadécimal (fondation 16) pour une visualisation et un ajustement humains. Les instructions du langage de l’appareil utilisent généralement certains bits pour représenter des opérations, telles que l’inclusion, plus certains pour représenter des opérandes, ou peut-être l’emplacement du prochain coaching. Le langage machine est difficile à lire et à écrire, car il ne ressemble pas à la notation mathématique conventionnelle ou au vocabulaire humain, et ses codes varient d’un ordinateur personnel à l’autre. Les dialectes algorithmiques sont conçus pour transmettre des calculs numériques ou symboliques. Ils pourraient transmettre des procédures algébriques dans une notation similaire aux mathématiques et permettre l’utilisation de sous-programmes qui regroupent des opérations largement utilisées pour la réutilisation. Ils étaient les tout premiers dialectes de degré supérieur. Le World Wide Web est un système permettant d’afficher du texte, des graphiques et du son récupérés sur Internet sur un écran d’ordinateur personnel. Chaque dispositif de récupération est considéré comme une page Web, et ces pages Web contiennent souvent des « liens » qui permettent de récupérer des pages connexes. HTML (langage de balisage hypertexte) est le langage de balisage pour l’encodage des pages Web. Il a été conçu par Tim Berners-Lee au laboratoire de physique nucléaire du CERN en Suisse dans les années 1980 et est basé sur une DTD SGML. Les étiquettes de balisage de code HTML spécifient les composants d’enregistrement tels que les en-têtes, les paragraphes et les meubles. Ils marquent un document pour le montrer par un programme d’ordinateur personnel connu sous le nom de navigateur Internet. Le navigateur interprète les balises, affichant les titres, les paragraphes et les meubles à l’intérieur d’un design adapté à la dimension de l’écran d’affichage et aux polices de caractères disponibles.

Commentaires fermés sur Les programmes des ordinateurs
Sep 09

L’explosion de l’internet

Le Web est né du travail de mise en relation de différents réseaux de recherche aux États-Unis et en Europe. Initialement, la DARPA a mis en place un logiciel pour rechercher l’interconnexion de «systèmes hétérogènes». Ce programme, appelé Internetting, reposait sur l’idée nouvellement lancée d’un réseau de structures ouvertes, dans lequel les systèmes dotés d’interfaces régulières définies seraient connectés par des « passerelles ». Une illustration d’exploitation montrant le concept a été prévue. Pour s’assurer que l’idée fonctionne, un nouveau protocole devait être conçu et créé ; en effet, un système de structures était nécessaire. En 1974, Vinton Cerf, alors à l’université de Stanford en Californie, et cet auteur, alors à la DARPA, ont collaboré aux articles qui décrivaient initialement ce type de processus et d’architecture de programme, à savoir le protocole de contrôle de transmission (TCP), qui autorisait différents types de machines sur des systèmes partout dans le monde pour acheminer et assembler des paquets de données. TCP, qui comprenait à l’origine le processus Internet (IP), un mécanisme d’adressage mondial qui permettait aux routeurs d’obtenir des paquets d’informations pour leur plus grand emplacement, a formé le protocole TCP/IP régulier, qui a été adopté par la division américaine de la défense en 1980. Dans les années 1980, « l’architecture ouverte » issue de l’approche des adresses TCP/IP a été adoptée et soutenue par de nombreux autres experts et finalement par des technologues et des entrepreneurs du monde entier. Dans les années 1980, d’autres organismes gouvernementaux américains étaient fortement impliqués dans la mise en réseau, notamment la Nationwide Science Foundation (NSF), le ministère de l’Énergie, ainsi que la National Aeronautics and Space Administration (NASA). Alors que la DARPA avait joué un rôle déterminant dans la création d’une édition à petite échelle d’Internet parmi ses chercheurs, la NSF a traité avec la DARPA pour développer l’accès à l’ensemble du quartier scientifique et éducatif et également pour faire de l’adresse TCP/IP le type de chaque étude financée par le gouvernement fédéral. systèmes. En 1985-86, la NSF a financé les cinq premiers centres de calcul intensif à l’université de Princeton, à l’université de Pittsburgh, au College of Ca, à San Diego, en Californie, au College of Illinois et à l’université Cornell. Dans les années 1980, la NSF a également financé le développement et la procédure du NSFNET, un réseau national de « colonne vertébrale » pour connecter ces centres. Depuis la fin des années 1980, le réseau fonctionnait à des millions de pièces par seconde. La NSF a également financé divers systèmes locaux et régionaux à but non lucratif pour connecter d’autres clients au NSFNET. Quelques réseaux industriels ont également commencé dans les années 1980 tardives; d’autres personnes en sont rapidement devenues membres, et le Commercial Internet Exchange (CIX) a été formé pour permettre le trafic de transport entre les réseaux commerciaux qui, autrement, n’auraient pas été autorisés sur le réseau fédérateur NSFNET. En 1995, juste après un examen approfondi de la situation, la NSF a décidé que l’aide des installations NSFNET n’était plus nécessaire, car de nombreux fournisseurs commerciaux étaient désormais prêts à répondre aux exigences du quartier de la recherche, et son aide a été retirée. . Pendant ce temps, la NSF a favorisé une variété agressive de dorsales Internet commerciales connectées les unes aux autres par le biais de facteurs d’accessibilité réseau (NAP). Depuis l’origine de votre Internet au début des années 70, le contrôle sur celui-ci est progressivement passé de l’intendance du gouvernement fédéral à la participation du secteur privé et enfin à la garde privée avec la surveillance et l’abstention du gouvernement. Aujourd’hui, un nombre vaguement organisé de plusieurs milliers de personnes intéressées, appelé Internet Engineering Task Pressure, participe à un processus de développement de base pour les normes Web. Les normes Web sont maintenues par Internet Culture à but non lucratif, un organisme international dont le siège social est situé à Reston, en Virginie. La Web Company for Designated Names and Figures (ICANN), une autre organisation privée à but non lucratif, supervise divers éléments du plan concernant les noms de domaine et les figures Web. L’augmentation des services et programmes Web commerciaux a contribué à alimenter une commercialisation rapide à partir du Web. Cette tendance était également le résultat d’un certain nombre d’autres facteurs. Un seul aspect essentiel était le développement de l’ordinateur individuel ainsi que du poste de travail au début des années 1980 – une amélioration qui à son tour a été alimentée par une amélioration sans précédent de la technologie des circuits intégrés ainsi que par une baisse rapide des coûts informatiques. Un autre aspect, qui a pris une importance croissante, SEO Lille a été l’apparition d’Ethernet et d’autres « réseaux locaux » pour lier des ordinateurs personnels par hyperlien. Mais d’autres forces avaient également été à l’œuvre. Suite à la restructuration d’AT&T en 1984, NSF avait profité de plusieurs nouveaux choix pour les services de dorsale électronique de niveau national pour votre NSFNET. En 1988, la Corporation for National Study Projects a obtenu l’autorisation de mener une expérience de connexion d’un service de courrier électronique professionnel (MCI Mail) à Internet. Cette application était la première connexion Web à un fournisseur industriel qui ne faisait pas également partie de la communauté d’étude. L’approbation a été rapidement mise en œuvre pour permettre l’accès à d’autres fournisseurs de courrier électronique, et le Web a commencé son explosion initiale de visiteurs.

Commentaires fermés sur L’explosion de l’internet