Nov 19

Un pas dans la mauvaise direction

La réunion de cette semaine du Fonds monétaire international à Washington sera probablement une répétition du fiasco de Seattle ». Une alliance impie d’activistes de la justice sociale et de champions du protectionnisme crée la confusion. Les critiques affirment que le FMI a perdu son chemin et doit être réformé. Le récent rapport de la Commission Meltzer a été conçu pour résoudre ce problème, mais n’a pas produit un ensemble convaincant de propositions.
Beaucoup de ses idées créent, plutôt que résolvent, des problèmes. En ce qui concerne la réduction de la dette, la commission recommande une annulation complète des dettes des pays les plus pauvres du monde, la plupart d’entre eux en Afrique. Les partisans du marché et les militants sociaux ont salué la proposition comme révolutionnaire. Mais une annulation inconditionnelle ne favorisera ni la croissance ni les pauvres.
Comme le souligne le rapport, aucun pays ne se développera sans une bonne gouvernance: l’État de droit, les droits de propriété et un leadership public non corrompu. Cela est aussi vrai au Congo, en Zambie et au Nigéria que partout ailleurs. Sans norme minimale de bonne gouvernance, une annulation de dette ne financera qu’un nouveau cycle de gaspillage et de corruption.
Ironiquement, cela fera plus pour les bilans des organisations internationales – à qui une grande partie de la dette est due – que pour les pauvres du monde. Il serait bien mieux et plus compatissant », de lier la réduction de la dette à des engagements sérieux, tels que la fourniture de services sociaux fondamentaux.

Cette politique éviterait l’aléa moral de l’argent facile », que le groupe Meltzer attribue au FMI. Cela protégerait les pauvres de la corruption de leurs propres gouvernements; et cela rendrait les institutions financières plus responsables des prêts qui n’ont pas atteint leurs objectifs.
En ce qui concerne les prêts de la Banque mondiale aux économies de marché émergentes à revenu intermédiaire, la commission recommande à la Banque mondiale et aux banques régionales, telles que la Banque interaméricaine de développement, de supprimer progressivement les prêts aux pays notés investment grade.
Des pays comme le Brésil, le Mexique, la Thaïlande et l’Afrique du Sud entrent dans cette catégorie: ils peuvent emprunter sur les marchés de capitaux. Mais les taux d’intérêt qu’ils paient sont élevés et volatils, et un accès fiable au crédit privé n’est en aucun cas assuré. Lorsque les Russes ont fait défaut sur leur dette intérieure en 1998, même les pays d’Amérique latine les plus solvables n’ont pas pu emprunter, sauf, bien sûr, auprès de la Banque mondiale et de la BID.
Lorsque la tourmente du marché mondial oblige ces pays à réduire les dépenses publiques pour rétablir la crédibilité auprès des prêteurs privés, ce sont les banques internationales qui fournissent des crédits pour soutenir leurs programmes d’éducation et de santé.
De nombreux pays en développement ne peuvent pas émettre de dette pour des durées supérieures à cinq ans, car les marchés internationaux de capitaux n’ont aucun appétit pour la dette à long terme des marchés émergents. Pourtant, les investissements dans le développement – dans les écoles et les infrastructures – ont des périodes de gestation beaucoup plus longues.
L’idée de la Commission de restreindre les prêts des banques de développement pourrait aider les banques internationales privées dans leur quête de profits à court terme: leurs activités de prêt bénéficieront du retrait du FMI. Mais cela mettrait en péril l’effort à long terme de création d’institutions dans les pays qui n’ont pas encore atteint un développement de marché durable.
Sur la question des prêts du FMI aux pays à faible revenu, la commission fait écho à une proposition de Laurence Summers, la secrétaire américaine au Trésor. Le FMI, selon lui, devrait reprendre son activité principale: prêter aux pays connaissant des problèmes de paiement et de liquidité, laisser l’aide au développement à long terme et la réduction de la pauvreté à la Banque mondiale et aux banques régionales de développement.
C’est une bonne idée. Mais il peut y avoir des compromis complexes entre la stabilité à court terme et le développement à long terme. L’insistance du FMI sur les coupes budgétaires pour résoudre les problèmes de liquidité à court terme et calmer les investisseurs et les déposants paniqués s’est trop souvent faite aux dépens d’investissements publics stables.
Sur ce point, l’appel de la commission à des taux d’intérêt de pénalité sur les prêts de crise à durée limitée est un pas dans la mauvaise direction. Il éliminera le soutien financier et les conseils aux pays qui ont du mal à surmonter les crises de courte durée.
Au lieu d’être mis au rebut, les prêts à court terme du FMI devraient être subventionnés, éventuellement par des prêts à moyen terme et des subventions administrées par les banques de développement. Au lieu de cela, dans un effort apparent pour dissoudre le FMI, la commission semble prête à abandonner complètement les pays à faible revenu.
Les membres de la Commission Meltzer et les manifestants sont unis dans leur appel à une réforme fondamentale des institutions financières internationales. Mais le développement est compliqué. Un argument élégant d’une part, et des manifestations de rue d’autre part, aussi bien intentionnées soient-elles, ne doivent pas l’emporter sur le réalisme.

Commentaires fermés sur Un pas dans la mauvaise direction
Sep 13

Les programmes des ordinateurs

Internet ne peut s’améliorer que grâce au codage. Mais on peut légitimement demander comment fonctionne la programmation. C est en fait un langage de programmation informatique créé au début des années 1970 par l’informaticien américain Dennis M. Ritchie chez Bell Labs (anciennement AT&T Bell Laboratories). C a été conçu comme un langage minimaliste pour être utilisé dans l’écriture de systèmes d’exploitation pour mini-ordinateurs, comme le DEC PDP 7, qui avait des souvenirs limités par rapport aux ordinateurs centraux de l’époque. Le vocabulaire a été créé tout au long de 1969-73, parallèlement à la croissance et au développement précoces du système d’exploitation UNIX. C’était selon le CPL (Combined Coding Language), qui avait d’abord été condensé dans le langage de programmation B – un vocabulaire de programmation informatique supprimé – développé en 1969-70 par Ken Thompson, un informaticien américain avec un collègue. de Ritchie. Ritchie a ensuite réécrit et réparé les fonctions de CPL pour produire du C et a finalement réécrit le système d’exploitation UNIX dans le nouveau vocabulaire. Les langages machine et les langages de configuration sont « de bas niveau », ce qui oblige un développeur à gérer clairement la plupart des attributs idiosyncratiques d’un ordinateur en matière d’espace et de procédure de stockage d’informations. En comparaison, les langages de niveau supérieur protègent un développeur contre le stress lié à de telles considérations et fournissent une notation plus facile à composer et à lire par les développeurs. Parce que le programme UNIX a été amélioré, un certain nombre de modifications se sont produites en C entre 1977 et 1979. Pendant ce temps, une description du langage est devenue largement disponible au moyen d’une réserve, The C Programming Vocabulary (1978), par Brian W. Kernighan et Ritchie. Au milieu des années 80, il est devenu important de créer une norme officielle pour le C, EUNIDA car il était utilisé dans des emplois susceptibles de faire l’objet d’accords commerciaux et gouvernementaux. En 1983, le Nationwide Specifications Institute (ANSI) des États-Unis a mis en place un comité qui a encore amendé et standardisé le vocabulaire. Depuis lors, C a été appelé ANSI Regular C, et il continue d’être bien connu dans le monde des systèmes d’exploitation de type UNIX. C est également devenu l’un des dialectes de programmation les plus courants utilisés pour créer d’autres logiciels et applications. Les descendants de C incluent Concurrent C, Objective C, C*, C# et le C largement utilisé. Le langage de codage Java a été introduit en 1994 en tant que sous-ensemble simplifié de C pour le déploiement sur Internet et pour une utilisation dans des appareils portables avec une mémoire restreinte ou des capacités de gestion limitées. Un vocabulaire d’équipement se compose des règles numériques pour les opérations que l’ordinateur personnel particulier peut effectuer immédiatement. Les codes sont des chaînes de 0 et de 1, ou des nombres binaires (« bits »), qui sont fréquemment transformés à la fois en hexadécimal et en hexadécimal (fondation 16) pour une visualisation et un ajustement humains. Les instructions du langage de l’appareil utilisent généralement certains bits pour représenter des opérations, telles que l’inclusion, plus certains pour représenter des opérandes, ou peut-être l’emplacement du prochain coaching. Le langage machine est difficile à lire et à écrire, car il ne ressemble pas à la notation mathématique conventionnelle ou au vocabulaire humain, et ses codes varient d’un ordinateur personnel à l’autre. Les dialectes algorithmiques sont conçus pour transmettre des calculs numériques ou symboliques. Ils pourraient transmettre des procédures algébriques dans une notation similaire aux mathématiques et permettre l’utilisation de sous-programmes qui regroupent des opérations largement utilisées pour la réutilisation. Ils étaient les tout premiers dialectes de degré supérieur. Le World Wide Web est un système permettant d’afficher du texte, des graphiques et du son récupérés sur Internet sur un écran d’ordinateur personnel. Chaque dispositif de récupération est considéré comme une page Web, et ces pages Web contiennent souvent des « liens » qui permettent de récupérer des pages connexes. HTML (langage de balisage hypertexte) est le langage de balisage pour l’encodage des pages Web. Il a été conçu par Tim Berners-Lee au laboratoire de physique nucléaire du CERN en Suisse dans les années 1980 et est basé sur une DTD SGML. Les étiquettes de balisage de code HTML spécifient les composants d’enregistrement tels que les en-têtes, les paragraphes et les meubles. Ils marquent un document pour le montrer par un programme d’ordinateur personnel connu sous le nom de navigateur Internet. Le navigateur interprète les balises, affichant les titres, les paragraphes et les meubles à l’intérieur d’un design adapté à la dimension de l’écran d’affichage et aux polices de caractères disponibles.

Commentaires fermés sur Les programmes des ordinateurs
Sep 09

L’explosion de l’internet

Le Web est né du travail de mise en relation de différents réseaux de recherche aux États-Unis et en Europe. Initialement, la DARPA a mis en place un logiciel pour rechercher l’interconnexion de «systèmes hétérogènes». Ce programme, appelé Internetting, reposait sur l’idée nouvellement lancée d’un réseau de structures ouvertes, dans lequel les systèmes dotés d’interfaces régulières définies seraient connectés par des « passerelles ». Une illustration d’exploitation montrant le concept a été prévue. Pour s’assurer que l’idée fonctionne, un nouveau protocole devait être conçu et créé ; en effet, un système de structures était nécessaire. En 1974, Vinton Cerf, alors à l’université de Stanford en Californie, et cet auteur, alors à la DARPA, ont collaboré aux articles qui décrivaient initialement ce type de processus et d’architecture de programme, à savoir le protocole de contrôle de transmission (TCP), qui autorisait différents types de machines sur des systèmes partout dans le monde pour acheminer et assembler des paquets de données. TCP, qui comprenait à l’origine le processus Internet (IP), un mécanisme d’adressage mondial qui permettait aux routeurs d’obtenir des paquets d’informations pour leur plus grand emplacement, a formé le protocole TCP/IP régulier, qui a été adopté par la division américaine de la défense en 1980. Dans les années 1980, « l’architecture ouverte » issue de l’approche des adresses TCP/IP a été adoptée et soutenue par de nombreux autres experts et finalement par des technologues et des entrepreneurs du monde entier. Dans les années 1980, d’autres organismes gouvernementaux américains étaient fortement impliqués dans la mise en réseau, notamment la Nationwide Science Foundation (NSF), le ministère de l’Énergie, ainsi que la National Aeronautics and Space Administration (NASA). Alors que la DARPA avait joué un rôle déterminant dans la création d’une édition à petite échelle d’Internet parmi ses chercheurs, la NSF a traité avec la DARPA pour développer l’accès à l’ensemble du quartier scientifique et éducatif et également pour faire de l’adresse TCP/IP le type de chaque étude financée par le gouvernement fédéral. systèmes. En 1985-86, la NSF a financé les cinq premiers centres de calcul intensif à l’université de Princeton, à l’université de Pittsburgh, au College of Ca, à San Diego, en Californie, au College of Illinois et à l’université Cornell. Dans les années 1980, la NSF a également financé le développement et la procédure du NSFNET, un réseau national de « colonne vertébrale » pour connecter ces centres. Depuis la fin des années 1980, le réseau fonctionnait à des millions de pièces par seconde. La NSF a également financé divers systèmes locaux et régionaux à but non lucratif pour connecter d’autres clients au NSFNET. Quelques réseaux industriels ont également commencé dans les années 1980 tardives; d’autres personnes en sont rapidement devenues membres, et le Commercial Internet Exchange (CIX) a été formé pour permettre le trafic de transport entre les réseaux commerciaux qui, autrement, n’auraient pas été autorisés sur le réseau fédérateur NSFNET. En 1995, juste après un examen approfondi de la situation, la NSF a décidé que l’aide des installations NSFNET n’était plus nécessaire, car de nombreux fournisseurs commerciaux étaient désormais prêts à répondre aux exigences du quartier de la recherche, et son aide a été retirée. . Pendant ce temps, la NSF a favorisé une variété agressive de dorsales Internet commerciales connectées les unes aux autres par le biais de facteurs d’accessibilité réseau (NAP). Depuis l’origine de votre Internet au début des années 70, le contrôle sur celui-ci est progressivement passé de l’intendance du gouvernement fédéral à la participation du secteur privé et enfin à la garde privée avec la surveillance et l’abstention du gouvernement. Aujourd’hui, un nombre vaguement organisé de plusieurs milliers de personnes intéressées, appelé Internet Engineering Task Pressure, participe à un processus de développement de base pour les normes Web. Les normes Web sont maintenues par Internet Culture à but non lucratif, un organisme international dont le siège social est situé à Reston, en Virginie. La Web Company for Designated Names and Figures (ICANN), une autre organisation privée à but non lucratif, supervise divers éléments du plan concernant les noms de domaine et les figures Web. L’augmentation des services et programmes Web commerciaux a contribué à alimenter une commercialisation rapide à partir du Web. Cette tendance était également le résultat d’un certain nombre d’autres facteurs. Un seul aspect essentiel était le développement de l’ordinateur individuel ainsi que du poste de travail au début des années 1980 – une amélioration qui à son tour a été alimentée par une amélioration sans précédent de la technologie des circuits intégrés ainsi que par une baisse rapide des coûts informatiques. Un autre aspect, qui a pris une importance croissante, SEO Lille a été l’apparition d’Ethernet et d’autres « réseaux locaux » pour lier des ordinateurs personnels par hyperlien. Mais d’autres forces avaient également été à l’œuvre. Suite à la restructuration d’AT&T en 1984, NSF avait profité de plusieurs nouveaux choix pour les services de dorsale électronique de niveau national pour votre NSFNET. En 1988, la Corporation for National Study Projects a obtenu l’autorisation de mener une expérience de connexion d’un service de courrier électronique professionnel (MCI Mail) à Internet. Cette application était la première connexion Web à un fournisseur industriel qui ne faisait pas également partie de la communauté d’étude. L’approbation a été rapidement mise en œuvre pour permettre l’accès à d’autres fournisseurs de courrier électronique, et le Web a commencé son explosion initiale de visiteurs.

Commentaires fermés sur L’explosion de l’internet
Août 27

Les opportunités dans la pharmacologie

Il semble que tout le monde dans la communauté des soins de santé parle de soins intégrés. Mais parce que le terme couvre un si large éventail de concepts, il est difficile de le définir, et encore moins de comprendre ses implications pour les fabricants. Pour ceux qui ont des souvenirs de soins gérés « et de gestion des maladies » dans les années 1990 – des concepts qui n’ont pas transformé le modèle inflationniste de prestation de soins de santé rémunérés à l’acte – les soins intégrés peuvent sembler n’être qu’une autre tendance à la mode sur Twitter. Sans surprise, de nombreux dirigeants de technologies pharmaceutiques et médicales restent sceptiques : l’adoption d’approches de soins intégrés entraînera-t-elle des améliorations de la productivité des soins de santé ? Et, si oui, cela nécessitera-t-il vraiment des changements dans le modèle économique de base des fabricants ?
Bien qu’un scepticisme sain semble approprié, nous voyons une valeur inexploitée dans la gestion plus efficace des patients dans tous les points de soins », et nous pensons que cette tendance se poursuivra compte tenu des forces du marché plus larges. Nous pensons également que l’émergence de systèmes intégrés aura un impact significatif sur les modèles d’exploitation de nombreux fabricants, affectant tout, de la conception des essais cliniques aux modèles de mise sur le marché.
La question la plus importante est de savoir si le passage aux soins intégrés obligera les fabricants à faire évoluer leurs modèles commerciaux, peut-être en migrant d’une entreprise uniquement axée sur les produits vers une entreprise davantage axée sur les solutions. Avant de faire ce choix, les dirigeants ont besoin d’une perspective claire sur trois questions clés :
Existe-t-il des besoins importants non satisfaits en matière d’intégration des soins dans les états pathologiques où vous jouez ?
Avez-vous des atouts et des compétences distinctifs à apporter?
Existe-t-il un modèle économique viable pour capturer la valeur que vous créez ?
Avant d’aborder ces questions, cependant, il peut être utile d’examiner les forces sous-jacentes à l’émergence de modèles de soins intégrés et certaines implications générales pour les modèles d’exploitation traditionnels de la pharma et de la technologie médicale. Pour des raisons pratiques, cet examen se concentre sur le marché américain, mais les concepts et les approches sont globalement pertinents.
Forces sous-jacentes à l’émergence de modèles de soins intégrés
À son niveau le plus élémentaire, les soins intégrés créent de la valeur en modifiant le comportement des patients et des prestataires de soins de manière à améliorer les résultats cliniques, à réduire les coûts et à offrir une meilleure expérience à tous. Au cours de la dernière décennie, les conditions du marché ont évolué d’une manière qui a permis l’émergence de modèles de soins intégrés :
Changements structurels dans la prestation des soins de santé, y compris la consolidation des pratiques des médecins, une évolution vers l’emploi des médecins et l’émergence de réseaux de prestation intégrés (IDN) avec des incitations alignées entre les payeurs et les fournisseurs ;
Numérisation accrue des soins de santé, permettant une collecte de données plus facile et de meilleure qualité, des analyses améliorées et un partage plus facile des informations entre tous les acteurs ;
Un engagement accru des consommateurs, stimulant la demande pour une expérience de soins plus homogène et augmentant la légitimité du patient/soignant dans les choix de traitement et les soins continus.
Ces facteurs pourraient permettre un changement radical de productivité et de qualité que le système existant est actuellement trop fragmenté pour être atteint.
Pour le moment, les prestataires mènent la charge. Les hôpitaux se sont emparés des pratiques de soins primaires et spécialisés pour assurer un flux d’aiguillage constant et créer un réseau qui améliore l’efficience et l’efficacité. En 2008, 53 fusions et acquisitions de groupes de médecins ont été annoncées publiquement. Trois ans plus tard, ce nombre avait à peu près doublé pour atteindre 108, bien qu’il ait ralenti en 2012, selon The Health Care Services Acquisition Report par Irving Levin Associates, 2013.
Pour les médecins, qui restent les principaux clients des sociétés pharmaceutiques et médicales, la vie dans ces grandes entités apporte une réalité économique différente. L’enquête 2013 de Bain auprès des médecins américains a révélé qu’entre la moitié et les deux tiers pensent qu’ils participeront à des initiatives de rémunération à la performance, de capitation ou de paiement groupé au cours des deux prochaines années, un pourcentage considérablement plus élevé que ce que nous voyons aujourd’hui (voir Figure 1). Les changements dans les incitations se traduisent également par des changements d’attitudes : une enquête similaire de Bain en 2011 a montré que les médecins comprennent et acceptent de plus en plus leur rôle dans la gestion des coûts. En bref, les fournisseurs s’alignent sur les payeurs, sur le plan économique et comportemental.
Dans cet environnement, de nombreuses expérimentations sont en cours, les payeurs achetant des prestataires et les prestataires désintermédiant les payeurs. Même des groupes de pharmacies comme Walgreens entrent dans la mêlée en formant des organisations de soins responsables avec des groupes de médecins de premier plan. Tous ces mouvements ne seront pas couronnés de succès, en partie à cause des défis d’exécution importants, mais les joueurs apprennent et s’adaptent en temps réel. Du bruit émergent les contours de nouveaux modèles de soins qui offrent aux fabricants un point d’entrée potentiel.
Modèles évolutifs de soins intégrés
Les modèles les plus prometteurs se regroupent autour d’unités d’intégration axées sur le patient », autrement dit un ensemble cohérent d’activités cliniques et économiques centrées sur un acte médical ou un type de patient particulier. La combinaison d’activités auparavant disparates mais connexes crée un nouveau marché avec des services qui peuvent être mesurés, tarifés et vendus, parfois directement aux employeurs. Les deux modèles décrits ci-dessous diffèrent par leurs objectifs et leur portée, mais tous deux visent à fournir des soins moins fragmentés à moindre coût (voir Figure 2).
Épisode de soins. L’approche la plus étroite cherche à intégrer toutes les activités autour d’une intervention ou d’un événement médical, un épisode de soins, comme une arthroplastie ou une greffe. Cette approche crée de la valeur en intégrant des activités avant et après l’intervention (telles que les soins de réadaptation à domicile) dans un programme holistique qui produit des résultats et une expérience du patient supérieurs. En traitant la procédure comme un événement plutôt que comme de nombreux événements, ces modèles peuvent maintenir des normes de qualité élevées tout en réduisant les coûts et en déplaçant les soins vers des centres plus pratiques. Les initiatives de paiement groupées et les pénalités de réadmission par les payeurs publics et privés accélèrent l’adoption de ces approches en utilisant des incitations financières pour relier les activités et mettre davantage l’accent sur les résultats.
Un exemple d’approche par épisode de soins est le programme de pontage aorto-coronarien (PAC) développé par la Cleveland Clinic dirigée par des médecins. Ce programme offre une gamme complète de services de traitement : hôpital, soins spécialisés, laboratoires et imagerie, services de réadaptation, conception de protocoles et gestion des réclamations. Par exemple, la clinique propose à Lowe’s, la chaîne de magasins, une structure de paiement groupée sous la forme d’un forfait couvrant toutes les activités, de l’admission à un nombre spécifique de jours postopératoires, pour tous les employés de Lowe’s nécessitant la procédure. Dans un seul cas, le partenariat entre la clinique et Lowe’s a permis d’économiser 62 000 $. La clinique a depuis étendu le programme à des clients comme Kohl’s, Rich’s, Boeing et Walmart. La clinique espère également gagner une part des bénéfices des payeurs et augmenter ses revenus en élargissant sa base de patients dans d’autres zones géographiques (voir la figure 3).
Soins continus. La deuxième approche vise à éviter les événements coûteux en premier lieu grâce à un modèle de soins continus centré sur le patient. Ce modèle se concentre davantage sur les maladies chroniques et crée de la valeur en connectant les différents points de soins des patients (comme un domicile, un cabinet médical ou une clinique) afin de réduire les déchets, d’améliorer les résultats cliniques et d’améliorer l’expérience du patient et du médecin. Il s’adresse généralement à des populations entières dans le cadre d’un système de remboursement par capitation. Il s’agit d’un grand prix, étant donné le potentiel d’amélioration des soins dans les populations telles que les personnes âgées ou celles atteintes de maladies comme le diabète, où l’observance du traitement et la surveillance de la maladie jouent un rôle important dans les résultats. C’est également un domaine où les acteurs d’autres secteurs, tels que la technologie et les télécommunications, voient une ouverture pour entrer sur le marché de la santé.
Le géant de l’assurance maladie Humana illustre une approche de soins continus dans son programme Humana Cares (voir Figure 4), qui fournit des soins intégrés aux patients atteints de maladies complexes et chroniques. Grâce à l’analyse des mégadonnées, plus de 200 000 participants avaient été sélectionnés et inscrits à la fin de 2012. Les patients de Humana Cares voient généralement leurs soins coordonnés par téléphone par une infirmière autorisée employée par Humana. Le programme comprend l’éducation et l’encadrement en matière de santé, la surveillance de l’observance des médicaments et la coordination d’autres soins aigus et chroniques pour une population principalement constituée d’inscrits à Medicare Advantage. Initiée en 2009, cette approche a entraîné une baisse de 26 % des réadmissions à l’hôpital et une baisse de 13 % des visites aux urgences au début de 2012.
Les modèles ci-dessus peuvent sembler intuitifs et faciles à comprendre, mais la mise en œuvre est un défi. Aligner les incitations à travers les différents silos, trouver des partenaires crédibles pour compléter l’offre, évaluer le risque financier, tarifer les produits avec précision et changer le comportement organisationnel sont tous très difficiles, et de nombreux fournisseurs et payeurs ne font que commencer le voyage. La question pour les fabricants est de savoir comment et quand répondre, le cas échéant.
Implications pour les entreprises pharmaceutiques et de technologie médicale
Il existe un véritable débat au sein de la direction de nombreuses entreprises pharmaceutiques et médicales sur les implications de ces tendances sur leurs activités. Le débat est d’autant plus intense qu’il survient lorsque les bénéfices des fabricants se réduisent et que le modèle d’engagement traditionnel avec les clients est sous pression sur les marchés développés (voir le Bain Brief, Healthcare 2020 »).
Au minimum, les entreprises devront repenser la façon dont elles développent et commercialisent leurs produits. Historiquement, l’accent a été mis sur la génération d’un point de vente avec les médecins dans un modèle de remboursement à l’acte. À l’avenir, cela deviendra davantage une vente de systèmes »aux réseaux dans un modèle de remboursement groupé ou par capitation. En d’autres termes, les fabricants vendaient auparavant dans un centre de profit, mais ils vendront de plus en plus dans un centre de coûts. Cela nécessite de passer de la vente d’intrants tels que l’efficacité clinique, la sécurité et le prix unitaire à la vente de produits tels que les résultats réels et les coûts totaux des soins. Les fabricants ont une certaine expérience de ce type de dialogue avec les payeurs pour l’accès au marché, mais ce qui est nouveau, c’est la nécessité d’avoir des conversations similaires avec les fournisseurs pour stimuler l’utilisation. Il appelle à des capacités améliorées en gestion de compte et en économie de la santé, ainsi qu’à un meilleur dialogue entre le marketing et le développement. Cela nécessite également des approches personnalisées pour servir des réseaux de fournisseurs plus importants avec leurs propres bases de données, protocoles et mesures de performance propriétaires.
La question plus large est de savoir si une entreprise doit faire évoluer son modèle commercial et jouer un rôle plus actif dans l’avancement de l’intégration des soins, gagnant ainsi une place à la table aux côtés de ses clients. Ces discussions commencent souvent par examiner quel rôle une entreprise peut jouer de manière crédible et s’il existe des ressources distinctes à y contribuer.
D’après notre expérience, les entreprises négligent souvent un certain nombre d’actifs cachés, notamment :
Connaissance approfondie d’états ou de conditions pathologiques spécifiques et des capacités scientifiques pour faire progresser l’état des connaissances ;
Perspective mondiale sur les meilleures pratiques médicales et les capacités de modélisation des résultats économiques et sanitaires pour évaluer différentes approches ;
Infrastructure et capacités promotionnelles pour influencer et changer le comportement des médecins et des patients ;
Des ressources financières et une aisance à prendre des décisions d’investissement dans des situations de relative incertitude.
Nos recherches montrent que les médecins accueillent favorablement l’implication de l’industrie pharmaceutique et médicale dans les soins intégrés, en particulier dans des domaines tels que les programmes d’adhésion et de bien-être, les protocoles fondés sur des données probantes, la surveillance à distance, l’analyse et la télémédecine (voir Figure 5).
Saisissant l’opportunité d’un rôle de partenariat dans la prise en charge continue des patients diabétiques, la société pharmaceutique Sanofi a pris la décision de construire une gamme complète de services autour de son produit d’insuline leader sur le marché, Lantus, pour les diabétiques de type 1 et de type 11. En plus du produit de base, Sanofi crée des programmes de bien-être, améliore l’éducation au diabète, intègre des dispositifs de dosage d’insuline et de surveillance de la glycémie, permet une surveillance à distance et travaille à la fois avec les prestataires de soins primaires et les patients pour améliorer l’observance. L’objectif est ambitieux : gagner l’acceptation du marché en réduisant les résultats d’HbA1c de 10 % tout en augmentant la satisfaction des patients. Sanofi espère réaliser une nouvelle source de revenus dans les tests d’appareils et gagner une plus grande part du marché de l’insuline pour Lantus. La société de technologie médicale Medtronic explore des modèles similaires dans divers états pathologiques grâce à sa récente acquisition de Cardiocom.

Commentaires fermés sur Les opportunités dans la pharmacologie
Août 25

Le malheur des réfugiés

Réfugié, tout migrant déraciné, sans abri, involontaire qui a franchi une frontière sans plus longtemps bénéficie de la protection de son ancien gouvernement fédéral. Avant le XIXe siècle, le mouvement d’une nation à l’autre n’avait pas besoin de passeports et de visas ; le droit d’asile était communément reconnu et respecté. Bien qu’il y ait eu de nombreuses vagues de réfugiés tout au long de l’histoire, il n’y a eu aucun problème de réfugiés jusqu’à l’apparition de frontières fixes et fermées à la fin du XIXe siècle. Dans les années 1920 et 1930, la coutume de l’asile gouvernemental s’est considérablement détériorée, en partie à cause de l’insensibilité croissante aux êtres humains en difficulté et en partie à cause du nombre sans précédent de réfugiés. Pendant de nombreux siècles, les requêtes de réfugiés ont été le résultat direct de l’intolérance religieuse et raciale. Des groupes entiers ont été déracinés, exilés ou déportés par les autorités respectives laïques ou spirituelles dans le but d’imposer la conformité. Des exemples de ce type de mouvement incluent l’expulsion des Juifs d’Espagne à la fin du XVe siècle, l’exode des huguenots de France à la suite de la révocation de l’Édit de Nantes en 1685, et l’expulsion des Juifs d’Allemagne, d’Autriche et des Sudètes (aujourd’hui en République tchèque) dans les années 1930. Les motions de réfugiés à motivation politique, fréquentes à l’époque moderne, se sont produites par intermittence en raison du développement de gouvernements suffisamment puissants pour opprimer les minorités non-conformistes. La révolution russe de 1917 ainsi que la guerre civile post-révolutionnaire (1917-1921) ont provoqué l’exode de 1,5 mille concurrents du communisme. Entre 1915 et 1923, plus d’un million d’Arméniens restant de petits pays d’Asie turque, et plusieurs centaines de milliers de fidèles espagnols ont fui vers la France à la suite de la guerre civile espagnole de 1936-39. Lorsque la République populaire de Chine a été créée en 1949, plus de 2 millions d’Orientaux ont fui vers Taïwan et vers la colonie de la couronne britannique de Hong Kong. Les années 1950 avaient été marquées par la bataille de Corée (1950-53), la tendance hongroise (1956), la tendance cubaine (1959), ainsi que la prise orientale plus que du Tibet (1959), qui ont entraîné la fuite des plus de millions de réfugiés. Entre 1945 et 1961, toute l’année où le régime communiste a érigé le mur de Berlin (ouvert en 1989), plus de 3,7 millions de réfugiés d’Allemagne de l’Est ont trouvé asile en Allemagne de l’Ouest. Un certain nombre de requêtes importantes en matière de réfugiés ont été introduites par la partition territoriale. Après la défaite de l’Allemagne lors de la Seconde Guerre mondiale, par exemple, la réunion de Potsdam de 1945 a approuvé le transfert des minorités allemandes d’un certain nombre de pays européens, et 12 millions d’Allemands ont été déversés autour du territoire tronqué de l’Allemagne, qui a été divisé en deux et les régions de l’ouest. La partition du sous-continent indien en 1947 a entraîné l’échange de 18 millions d’hindous du Pakistan et de musulmans d’Inde, le meilleur transfert de population de l’histoire. Quelque 8 à 10 millions de personnes avaient également été temporairement transformées en réfugiés par le développement du Bangladesh en 1971. La partition de la Palestine en 1948 a déclenché un exode presque massif des Arabes palestiniens à la suite de la confrontation des services militaires impliquant la nouvelle condition d’Israël et des nations arabes voisines . La désintégration des vastes empires coloniaux occidentaux a également introduit le retour de milliers de sujets britanniques de toutes les régions d’Afrique et d’Asie, de réfugiés français d’Afrique du Nord et d’Indochine, d’Italiens de Libye, ainsi que de Hollandais d’Indonésie. Le mouvement mondial pour les réfugiés n’a pas commencé avant les années 1920. En 1921, Fridtjof Nansen de Norvège a été nommé par la Société des Nations en tant que haut-commissaire pour les réfugiés et a créé un passeport dit de la Ligue des pays (« passeport Nansen »), un document de voyage qui donnait au propriétaire le droit de se déplacer plus facilement à travers limites nationales. Juste après la mort de Nansen en 1930, la sécurité des réfugiés a été confiée à l’Office international Nansen pour les réfugiés, mais ce lieu de travail a réalisé peu de choses avant l’expiration de son mandat en 1938. D’autres sociétés d’assistance aux réfugiés ont inclus le Comité intergouvernemental pour les réfugiés (1938 -47), le U . N. Organisation de secours et de réadaptation pour les réfugiés (1947-1952) et le Bureau de l’U . N. Haut Commissariat pour les réfugiés (HCR), créé en 1950. Le Comité intergouvernemental pour les migrations occidentales (rebaptisé Comité intergouvernemental pour les migrations en 1980) a été créé en 1951. Un certain nombre d’agences non gouvernementales et bénévoles, comme le Comité mondial pour le relèvement, ont également été reconnu dans le monde entier.

Commentaires fermés sur Le malheur des réfugiés
Juil 21

Des sensations extrêmes en bateau

Si vous voulez naviguer, vous connaissez certainement l’America’s Cup, l’un des meilleurs trophées qu’un marin puisse remporter. L’America’s Cup est l’un des trophées les plus anciens et les plus connus de la compétition internationale de yacht de croisière. Il a d’abord été offert comme le 100 Guinée Mug le 20 août 1851, par le Royal Yacht Squadron of Great Britain pour une compétition autour de l’île de Wight. La tasse a été gagnée par l’America, une goélette de 100 pieds (30 mètres) de New York, et est ensuite devenue la tasse de l’Amérique. Les vainqueurs américains de la coupe l’ont apporté à la New York City Yacht Team en 1857 pour toute compétition d’obstacles mondiale perpétuelle. En 1987, la San Diego, Ca Yacht Team avait pris le contrôle du You.S. compétition. Depuis les années 1920, la compétition America’s Mug se déroule entre un seul navire en défense et un navire difficile, chacun étant déterminé par un nombre distinct de tests d’élimination. Chaque navire concurrent doit être développé, construit et, dans la mesure du possible, équipé exclusivement dans le pays qu’il représente. Les conditions initiales du don de l’America’s Cup imposaient de nombreux inconvénients aux yachts difficiles. Ce n’est qu’en 1956 qu’une clause a été éliminée qui obligeait un challenger à naviguer sur sa propre base pour se rendre sur les lieux du concours, poussant un type de construction plus lourd par rapport au défenseur. Jusqu’en 1995, les concurrents de l’America’s Mug avaient été les 4 meilleurs des 7 événements; de cette année-là jusqu’en 2007, il fallait 5 des 9 épreuves pour gagner. De 1958 à 1987, chaque course s’est déroulée sur un parcours de 6 étapes de 24 milles (39 kilomètres) par des yachts de la classe dite des 12 mètres. (Aucune mesure autour du yacht de 12 mètres n’était en réalité de 12 mètres. Le « 12 » était le résultat d’une formulation numérique complexe utilisée dans la construction du yacht.) En 1983, après que les yachts américains (subventionnés par le New York Yacht Club) aient connu avec succès a défendu la coupe 24 fois sans réduction depuis la première défense en 1870, le yacht australien Melbourne II a remporté la coupe. Lors de la compétition suivante, en 1987, les citoyens américains (maintenant de San Diego, Californie) ont regagné la tasse. La compétition discutable de 1988, impliquant le succès du catamaran américain de 60 pieds (18 mètres) et d’un monocoque néo-zélandais de 132 pieds (40 mètres), devait être tranchée par les tribunaux et a provoqué une redéfinition des lignes directrices régissant courses de longue durée. Pour 1992, un nouveau yacht plus rapide a été désigné pour l’International America’s Mug Class (IACC) – 75 pieds (23 m) en longueur totale jusqu’à la compétition sur un programme de huit jambes inférieures de 22,6 kilomètres (36,4 kilomètres). L’événement de 1995 s’est déroulé sur un parcours en six étapes de 18,55 milles marins (34,4 kilomètres). Il avait été remporté par le Royal Nz Yacht Squadron, seulement le deuxième triomphe d’un challenger non américain en arrière-plan de la compétition. Le skipper de la victoire de Nz en 1995 était Russell Coutts, qui a également mené la Nouvelle-Zélande à quelques gains en 2000 ; Coutts, skipper de n’importe quelle équipe suisse, a remporté une autre victoire successive en 2003. En 2007, l’équipe suisse, avec Brad Butterworth comme skipper, a défendu son nom. Un groupe américain appartenant à l’homme d’affaires Larry Ellison, Oracle Team United States, a repris la Coupe en 2010 lors d’une compétition à deux courses qui a été reportée par de nombreux combats judiciaires. En 2013, sortie en mer catamaran Quiberon le You.S. a connu l’un des retours les plus remarquables de l’histoire : le groupe américain (capitaine de Jimmy Spithill et course à l’intérieur d’un catamaran de 72 pieds [22 mètres] nouvellement développé) suivait la Nouvelle-Zélande 8-1 dans un très bon -17 séries et a ensuite remporté le reste des 8 courses pour le triomphe de la Coupe de l’America le plus imprévisible de tous les temps. Aujourd’hui, les bateaux en compétition sont des machines extraordinaires et si vous en avez l’occasion, essayez de ressentir les sensations fortes en faisant un tour.

Commentaires fermés sur Des sensations extrêmes en bateau
Juil 08

Humanitaire: le Yemen à l’abandon

Zahra Alqadasi Au cours des dernières années, l’UNICEF a versé des incitations mensuelles aux instructeurs et aux employés des écoles au Yémen juste après avoir fourni 70 000 USD à cette fin. Les instructeurs ont obtenu 250 USD chacun pendant le Ramadan l’année dernière. Cela a aidé de nombreuses personnes à acheter leur matériel du Ramadan et à rembourser leurs dettes juste après trois ans sans avoir leur plein salaire. Sana déclare : « Avec l’aide de Dieu, nous avons pu obtenir tout notre matériel pour le Ramadan cette saison grâce à l’aide financière des membres de notre famille, plus la moitié de mon revenu et celui de mon mari…. Ramadan est le mois de la générosité à la fin. Salem, travaille également dans l’éducation, il était enseignant au Collège Al Hudaydah à l’ouest de Sanaa. Mais contrairement à Sana, il a pris la décision de quitter son travail et de s’installer dans la capitale tout au long du ramadan 2018, fuyant la bataille et la situation de résidence difficile, dans l’espoir de trouver un meilleur emploi. Salem a été surpris, comme beaucoup d’autres qui ont également été déplacés, de la difficile situation de résidence à Sanaa. « En tant que zone de déplacement, la ville est sûre. Cependant, cela nuit au niveau mental en raison de la situation de vie terrible », a-t-il déclaré à openDemocracy. De nombreux employés sont obligés de travailler malgré leurs baisses de salaire depuis 2015. L’éducateur de 45 ans précise : « Quand j’ai quitté Al Hudaydah, je pensais que je chercherais personnellement un travail à Sanaa et me détendre, cependant les salaires sont réduits. Même les détaillants qui fonctionnent toujours et créent des revenus se plaignent du scénario, alors que pouvons-nous faire ? » Salem a été étonné de voir à quel point les fonds étaient surchargés, en raison du nombre de personnes déplacées fuyant la guerre ou recherchant de bien meilleures possibilités de vie. Le rapport du Conseil supérieur pour l’administration et la coordination des affaires humanitaires mentionne que Sanaa abrite environ 208 000 personnes déplacées.

Commentaires fermés sur Humanitaire: le Yemen à l’abandon
Juil 08

Bientôt un avion espion français ?

L’organisation française des achats et des technologies, la Course générale de l’armement (DGA), a confié le plan stratégique aéroporté Archange à Dassault Aviation et Thales. Ce programme permettra de repérer trois Dassault Falcon 8X équipés de la technologie intellectuelle électronique de Thales. L’accord a été donné le 30 décembre 2019, a déclaré la DGA le 14 janvier 2020. Thales et Dassault Aviation ont pour mission d’équiper le futur avion stratégique d’intelligence de l’armée française de «Universal Warfare Capacities» (CUGE). L’achat principal porte sur les deux premiers avions Dassault Falcon 8X. En utilisant l’avion initialement prévu pour 2025, baptême en avion de chasse Rennes ils doivent éventuellement remplacer les deux avions Transall C-160G Gabriel qui opèrent actuellement au sein de la Force Atmosphérique Française. L’avion devra également être puissant en voltige. Le Falcon 8X tri-jet est vraiment un avion d’affaires qui peut transporter 8 voyageurs et trois membres d’équipage sur une distance de 12 000 km (6 450 nm). Basé sur le constructeur, sa gestion numérique des voyages en avion découle directement de l’expérience de Dassault Aviation reçue avec ses deux nouveaux avions de combat mma, le Mirage 2000 et le Rafale. Thales a développé sa nouvelle unité de détection CUGE spécifiquement pour les services militaires français, permettant en même temps l’interception des polluants radio et radar fm. Des antennes multipolaires seront probablement incorporées dans la cellule, ainsi que des systèmes de connaissances artificiels qui permettront une gestion accrue des informations. Le programme offre un système d’instruction au sol. Le prix total de l’accord n’est pas familier. Étant un «avion espion» numérique, la fonction du Falcon Archange (anciennement Epicure) est de détecter les impulsions électromagnétiques produites sur le champ de bataille, permettant à l’armée française d’évaluer le nombre et le type de causes de l’adversaire pour utiliser les contre-mesures correctes. «La capacité d’anticiper les améliorations est vitale pour la sécurité nationale, et une connaissance fiable est donc une exigence vitale pour connaître les dangers et notifier les décisions fonctionnelles», explique Nadim Traboulsi, directeur du système Archange chez Thales. Dassault a lancé un certain nombre d’avions efficaces, comme le chasseur à réaction Ouragan mma (initialement piloté en 1949) ainsi que le groupe de chasseurs supersoniques Mystère (à partir de 1952), qui, ensemble, ont révolutionné la sauvegarde nationale de la France. Le groupe de chasseurs à ailes delta Mirage (à partir de 1955), qui a incorporé le tout premier avion européen à dépasser le double du rythme sonore, est devenu non seulement un produit très efficace, mais en plus, grâce à ses revenus, un moyen de renforcer Alliances politiques de la France avec certains autres pays. En 1963, l’organisation a introduit l’avion d’affaires Falcon, puis en 1969, elle a acquis une participation majoritaire dans Breguet Aviation (fondée en 1911 par le constructeur d’avions français Louis-Charles Bréguet), le partenaire français au sein du programme de chasseurs Jaguar franco-allemand. Dans les années 70, le bimoteur subsonique Alpha Jet, développé en tant que tâche conjointe par Dassault et Dornier en Allemagne, a été introduit dans les types d’entraînement et d’attaque du sol léger. Dassault a piloté pour la première fois les versions originales des chasseurs supersoniques multirôles, le Mirage 2000 à un moteur et le Rafale à deux générateurs, respectivement en 1978 et 1986.

Commentaires fermés sur Bientôt un avion espion français ?
Juin 04

On redécolle

L’objectif de chaque aviateur est de voler, mais parfois, le style de vie devient quand il s’agit de voler. Fréquemment, nous sommes obligés, par une série d’événements ou de défis lancés par la vie, de rester sur le sol pendant un certain temps. En général, la santé, les enfants qui commencent, vivre à l’étranger ou changer d’emploi sont des aspects qui peuvent nous couper les ailes pendant un certain temps. Juste après un temps loin de l’aviation, un retour peut être un peu difficile. Un peu comme une conférence avec un copain de la vieille école, il y a un sentiment de familiarité, combiné à un événement de changement. En fonction de la durée de votre absence, de nombreuses modifications des règles ont pu survenir : l’augmentation du nombre d’avions préparés hublot-cockpit, la croissance des avions de loisir, les modifications de certaines licences Component 61, la zone graphique à prévoir ainsi que l’augmentation de l’EFB. En plus des nouvelles règles, préparez-vous aux changements dans l’aérogare : aires de manœuvre, désignations des voies de circulation et, lorsque l’absence a été longue, les méthodes de classe D. Le retour à l’aviation n’a pas besoin d’être intimidant, mais il faudra un peu de préparation avancée. L’aviation de base est vraiment un monstre mystique ; plusieurs choses apparaissent embourbées dans la tradition, tandis que d’autres changent rapidement. Les collèges qui étaient en plein essor il y a cinq ans peuvent ne pas fonctionner, tandis que d’autres se sont peut-être développés, Tematis adaptés ou ont surgi. Bien sûr, les organisations aérodynamiques continuent d’avancer, centrées parce qu’elles sont basées sur la loyauté de leurs membres. Un élément surprenant pourrait être l’omniprésence des avions de loisir. N’étant plus le domaine des pilotes d’avions nationaux, ces avions avec des numéros sur la queue sont disponibles pour être employés dans les collèges d’entraînement à travers le pays, des aéroports internationaux très fréquentés aux pistes d’atterrissage périphériques calmes. Anciennement connue sous le nom d’Aussie Ultralight Federation, Leisure Aviation Melbourne (RAAus) est le plus grand organisme australien responsable de la gestion des ultralégers et des activités récréatives et de certaines opérations d’avions de sport d’éclairage (LSA). Avec un effectif d’environ 10 000 propriétaires/pilotes, entraîneurs de vol et mainteneurs, RAAus enregistre une flotte de près de 3 500 avions, supervise les procédures de 174 écoles de pilotage de vol de ligne aérienne et anime près de 50 aéroclubs. Pour tous ceux dont le vol est en grande partie loisir, les avions autorisés avec RAAs vaudront la peine d’être explorés. Il y a un choix impressionnant de choix facilement disponible, capable de répondre à presque tous les désirs de vol, de 30 minutes autour du patch, à une expédition transcontinentale. CASA a introduit la licence de pilote de loisir (RPL) en 2014. Si vous n’aviez pas terminé votre PPL avant de prendre du temps, mais que vous étiez compétent pour le GFPT, il pourrait être utile de comprendre les droits que le RPL autorise et de l’environnement comme étant votre premier but. Après avoir sélectionné un centre de formation, la prochaine chose est de réserver un vol de remise à niveau avec un instructeur. Cela peut permettre une évaluation de vos compétences et peut mettre l’accent sur l’endroit où placer le brossage concentré. En fonction de la durée de l’absence, le renouvellement du certificat de santé et de l’ASIC/AVID peut être indispensable, ainsi qu’une révision de vol en compagnie aérienne. Pour ceux qui sont absents depuis quelques années, des changements dans le cadre des licences seront apparents. Le 1er septembre 2014, de nouvelles directives sont entrées en vigueur concernant les licences des équipages de conduite des compagnies aériennes. Connues sous le nom de Composante 61, les nouvelles directives ont apporté des modifications substantielles aux classements et aux mentions. En vertu des nouvelles lignes directrices, les spécifications de compétences affectent désormais toutes les licences, classements et annotations, ainsi que les évaluations de vol des compagnies aériennes, les contrôles de compétence et les révisions en vol des compagnies aériennes. La licence Partie 61 reflète les compétences du pilote en ajoutant un classement de cours d’avion ou une qualification de type (par exemple, moteur solitaire, piston ou un type d’avion spécifié). De plus, il existe des notations opérationnelles telles que la notation d’outil (IR), le classement IFR privé (PIFR) et le classement des formateurs de vol des compagnies aériennes (FIR). Chaque classement fonctionnel peut être entériné pour un avion à moteur solitaire (Ocean) ou un hélicoptère (H). De plus, vous trouverez des mentions de fonction de style pour des produits tels qu’un train d’atterrissage rétractable ou une roue de queue, et des mentions d’activité de vol pour des opérations telles que le remorquage de planeur, la voltige ou le vol en formation. La qualification de classe ou de type d’aéronef, les cotes fonctionnelles et les recommandations sont documentées autour de la nouvelle licence, plutôt que dans le carnet de bord du pilote. Les documents en cours seront transmis de la réserve de log vers la nouvelle licence lors de son renouvellement. La toute nouvelle licence est toujours un document papier, et vous remarquerez qu’il y a beaucoup plus de pages (pour la signature des notes et des évaluations de vol). L’obtention d’une nouvelle licence est déclenchée par une évaluation, une approbation ou un classement de vol de la compagnie aérienne. Depuis le 21 mars 2016, tous les examens médicaux de l’aviation sont terminés sur Internet par les pilotes d’avion et les contrôleurs de la circulation atmosphérique (ATC). Les pilotes d’avion et les ATC ayant des soins de santé dus à ce jour auront reçu une notification par e-mail de la CASA les avisant que leur certification médicale prendra fin et les enjoignant de vérifier les informations personnelles et de mettre à jour leurs antécédents médicaux dans le nouveau système de dossiers médicaux. (MADAME). Des modifications supplémentaires sont apportées au programme de certification médicale de l’aviation et sont maintenant introduites au cours de cette année civile. À partir du 1er mars 2018, une certification de soins de santé de classe 2 sera une alternative pour les pilotes exploitant des vols aériens commerciaux qui n’ont pas de voyageurs. Ceci s’applique aux opérations ayant un poids maximum à emporter inférieur à 8618 kg et sera probablement particulièrement avantageux pour les vols agricoles aériens, l’instruction au vol des compagnies aériennes ou l’évaluation en vol. Actuellement, les pilotes d’avion devraient avoir un certificat médical de classe 1 pour de telles procédures. Depuis le début d’avril 2018, les DAME peuvent avoir la possibilité de contester l’accréditation des soins de santé du cours 2 sur place, et à partir du 2 juillet 2018, une toute nouvelle catégorie de certification de soins de santé de pilote personnel (cours de base 2) est disponible. Les certificats du cours 2 actuels ne sont pas affectés. Le programme Internet nécessite toujours une visite à un DAME, mais le médecin traitera votre type en ligne, et si vous êtes aussi chanceux que certains, votre certificat de santé sera avec vous le lendemain ! Un document qui ne vous accompagnera certainement pas le lendemain est certainement l’ASIC. Introduit en 2005, ce morceau de plastique très contesté est obligatoire pour les pilotes qui ont besoin d’un accès régulier à une zone sécurisée d’un terminal d’aéroport géré par la sécurité et doté de procédures régulières de transport public général (RPT). Lorsque vous avez une licence d’équipage de conduite délivrée par la CASA et que vous n’avez jamais besoin d’utiliser fréquemment une section sécurisée d’un terminal d’aéroport contrôlé par la sécurité qui a des procédures RPT, une demande de contrôle de sécurité d’historique est requise ainsi qu’un Enthousiastique sera émis, à condition que le les inspections sont réussies.

Commentaires fermés sur On redécolle
Mai 31

La tragédie de la biodiversité

Chaque organisme sur Terre représente les lignes réussies de millénaires de sélection naturelle, et chaque espèce remplit des emplois spécifiques à l’intérieur des écosystèmes qu’elle habite et façonne. Nous continuons à dépendre directement de nombreuses plantes et animaux sauvages pour les aliments, et beaucoup d’entre eux ont déjà été la source d’importants produits pharmaceutiques ou l’inspiration pour des percées technologiques. Au-delà de leur valeur financière pour les êtres humains, les plantes et les animaux nous font plaisir et enrichissement dans leur élégance et leur nouveauté. Notre mode de vie serait probablement moins magnifique et fascinant sans oiseaux chanteurs, girafes époustouflantes, fleurs sauvages, requins excitants ou forêts tropicales exubérantes, n’est-ce pas? Alors que les micro-organismes sont toujours venus et ont disparu au cours du passé historique de notre planète, les dommages à la biodiversité moderne sont d’origine humaine et les extinctions ont lieu environ 1 000 fois plus rapidement que les prix naturels. Les animaux de compagnie, des baleines aux abeilles, et les plantes de toutes formes et tailles sont menacés par l’amélioration de l’être humain, la surexploitation, la pollution et le réchauffement climatique. Nous avons entièrement éliminé de nombreux micro-organismes distinctifs et intrigants, et de nombreux autres vacillent au bord de l’extinction. La liste des choses à faire pour sauvegarder notre précieuse biodiversité est longue, mais les accords internationaux, la préservation du caractère et les mesures pour arrêter le braconnage ainsi que d’autres types de surexploitation font déjà effet. La réduction de la biodiversité identifie la diminution des plantes et des fleurs, des créatures, ainsi que d’autres micro-organismes dans de nombreuses régions du monde. Les populations de tous les types d’existence non humaine (ainsi que leur précieuse diversité héréditaire) se réduisent en raison des risques individuels. De nombreuses espèces sont vulnérables et menacées d’extinction, et malheureusement, de nombreux nombres innombrables ont été perdus depuis longtemps. Comprenez la biodiversité, ce qu’elle est exactement et pourquoi elle est concernée, et lisez quelques-uns des micro-organismes spécifiques menacés par les étapes. Le concept de biodiversité est le plus souvent lié à la richesse en espèces (l’addition de variétés dans une zone), et donc la réduction de la biodiversité est généralement considérée comme des dommages aux variétés d’un écosystème ou peut-être de la biosphère complète (voir aussi extinction). Néanmoins, associer les dommages à la biodiversité aux dommages causés aux variétés par vous-même regarde d’autres phénomènes discrets qui mettent en danger la santé globale de l’écosystème à long terme. Des déclins brusques d’habitants peuvent éventuellement perturber les structures interpersonnelles dans certains types, ce qui peut toujours empêcher les hommes et les femmes de découvrir des partenaires, ce qui peut ensuite entraîner un déclin supplémentaire des habitants. Le déclin de la diversité génétique qui s’accompagne de chutes rapides d’habitants pourrait augmenter la consanguinité (accouplement entre hommes et femmes étroitement liés), ce qui pourrait entraîner une diminution plus importante de l’assortiment génétique. Bien qu’une variété ne soit pas retirée de votre écosystème ou de la biosphère, son marché (la part des types dans les écosystèmes qu’elle habite) diminue à mesure que les quantités diminuent. Si les catégories de niche chargées au moyen d’un seul type ou d’un groupe de variétés sont essentielles au bon fonctionnement de l’écosystème, une baisse brutale des effectifs peut entraîner des modifications considérables de la structure de l’écosystème. Par exemple, le défrichage d’arbres provenant d’une forêt se débarrasse de l’ombrage, du contrôle de la température et de l’humidité, de l’environnement animal et de la source de solutions de transport de nourriture qu’ils offrent à l’écosystème.

Commentaires fermés sur La tragédie de la biodiversité