Podcasts sur l'histoire

Ère de l'information

Ère de l'information


L'ère de l'information

WASHINGTON, D.C. : En mai, le Musée national d'histoire américaine du Smithsonian ouvrira son exposition la plus grande et la plus ambitieuse de tous les temps, une installation permanente de 14 000 pieds carrés de 9,5 millions de dollars intitulée « L'ère de l'information : les gens, l'information et la technologie ».

« L'ère de l'information tentera de montrer aux visiteurs, d'une manière passionnante et divertissante, comment l'information imprègne nos vies », explique le conservateur de l'exposition, David K. Allison. Cela commence par un carrousel tournant dramatisant comment nous avons créé un monde où nous conversons à travers les continents par téléphone, remplissons nos portefeuilles d'argent dégorgé par des guichets automatiques, documentons nos vacances avec des caméras vidéo et tuons le temps avec Nintendo.

On peut dire que tout a commencé il y a 150 ans, avec le télégraphe de Samuel Morse. La première partie de l'exposition, « Les gens, l'information et la technologie, 1835-1939 », suit deux voies parallèles de l'ère de l'information en évolution : la communication et le traitement de l'information, ce dernier n'incluant pas seulement les développements technologiques, tels que la machine à calculer et le registre, mais des évolutions sociales, telles que l'émergence de systèmes de gestion modernes. La section se termine par une reconstitution grandeur nature d'une rue de la ville de 1939, où les visiteurs peuvent observer comment les technologies de l'information telles que le téléphone et la radio étaient déjà devenues partie intégrante de la vie des gens.

Dans la section suivante, « Seconde Guerre mondiale : la guerre de l'information, 1940-45 », les deux volets de la communication et du traitement de l'information se confondent. «Ce fut le tournant de l'ère de l'information», déclare le conservateur collaborateur Steven Lubar (qui a écrit l'article sur les brevets dans ce numéro). En plus d'innovations telles que le radar et le sonar, « la véritable poussée de la technologie informatique vient de la Seconde Guerre mondiale ». Pendant la guerre, une technologie informatique embryonnaire a craqué ENIGMA, le code prétendument incassable des Allemands, tandis qu'ENIAC, un premier ordinateur numérique, a calculé les trajectoires des missiles pour l'armée.

La partie la plus intéressante de la section Seconde Guerre mondiale est une reconstitution détaillée d'un centre d'information de combat à bord d'un destroyer naval de la Seconde Guerre mondiale, où les données vitales recueillies par radio, sonar et radar ont été tracées et analysées. "C'était la première fois qu'il valait mieux utiliser des appareils électroniques que de simplement sortir et regarder les choses", note Lubar.

La dernière section retrace les évolutions les plus diverses des technologies de l'information jusqu'à nos jours, du transistor et de la haute fidélité à la révolution informatique et à l'essor des réseaux d'information mondiaux. Parmi les affichages figurent un robot industriel de General Motors et une reconstitution du studio de télévision où ont eu lieu les débats Kennedy-Nixon en 1960, des événements politiques qui ont confirmé l'immense pouvoir des médias électroniques.

« L'ère de l'information » est animée par un certain nombre d'affichages interactifs. Entre autres choses, les visiteurs pourront crypter leur nom avec le code ENIGMA, faire scanner leurs empreintes digitales par un ordinateur du FBI, produire un segment de nouvelles télévisées du soir à partir d'images brutes et essayer de gérer un appel d'urgence 911. Conformément à l'esprit du flux libre d'informations (et à la politique habituelle du Smithsonian), l'entrée au musée est gratuite.

NEWARK, DEL. : Lorsque Thomas Edison a inventé le phonographe en 1877, il l'a considéré comme un outil de bureau et a déconseillé son utilisation pour le divertissement. Selon George Basalla, historien de la technologie à l'Université du Delaware, la morale de cette histoire est que « la nécessité n'est pas la mère de l'invention. Nous n'avions pas besoin d'outils de feu ou de pierre pour survivre.

Les historiens de la technologie, note Basalla, contrairement à leurs collègues de l'histoire des sciences, ont traditionnellement évité les théories radicales qui traversent les siècles et les frontières culturelles. « J'aime les grandes théories », ajoute-t-il. Il avance une très grande théorie dans son récent livre The Evolution of Technology (Cambridge University Press). Le livre examine globalement le processus de changement technologique. D'où viennent les inventions ? Pourquoi y en a-t-il autant ? Le point de vue de Basalla sur le changement technologique s'inspire de l'évolution biologique. Sur de longues périodes de temps, les générations successives d'êtres vivants et créés par l'homme subissent des changements graduels, devenant généralement plus complexes.

L'évolution technologique doit différer de l'évolution biologique de manière fondamentale, bien sûr, comme l'admet Basalla. Les artefacts et les espèces atteignent tous deux la diversité en se ramifiant le long de multiples voies évolutives, mais seules les choses créées par l'homme peuvent également fusionner, comme lorsque le moteur à combustion interne, la bicyclette et la calèche se sont combinés pour former l'automobile.

"C'est une analogie vague", admet Basalla. « C’est une façon de penser la technologie. » Il considère cependant l'analogie évolutionniste comme un antidote à plusieurs idées fausses populaires sur la façon dont la technologie se développe.

Le premier, et peut-être le plus vexant pour les historiens, considère la technologie comme une série de cadeaux prométhéens d'inventeurs héroïques. Cela favorise une vision simpliste et « discontinue » de la technologie. Le modèle évolutif met l'accent sur la continuité entre les générations successives de choses créées par l'homme. "Chaque nouvel artefact", écrit Basalla, "est basé dans une certaine mesure sur un artefact existant connexe." Ainsi, l'Uzi peut vraisemblablement être retracé le long d'une série ininterrompue d'armes, en commençant par le premier rocher lobé par un hominidé.

Des preuves plus tangibles de la continuité technologique peuvent être trouvées en examinant ce que Basalla appelle les skeuomorphes - des éléments structurels ou de conception qui ne servent à rien mais faisaient partie intégrante des incarnations antérieures de l'artefact. Les exemples incluent les cubes de maçonnerie non fonctionnels espacés sous les avant-toits des temples en pierre de la Grèce antique, qui sont des vestiges modelés sur les extrémités saillantes des poutres en bois qui avaient soutenu les toits des structures grecques antérieures. Plus récemment, les premiers ponts en fer étaient souvent modelés sur des travées en bois et en maçonnerie au lieu de tirer pleinement parti des propriétés propres du métal.

L'évolution technologique s'oppose également au mythe persistant de la technologie en tant que science purement appliquée. L'examen par Basalla du développement de la machine à vapeur et des communications radio révèle une interaction beaucoup plus complexe dans laquelle les innovations technologiques ont souvent lieu avant les découvertes scientifiques qui expliquent leurs principes directeurs.

Peut-être influencé par la nature chaotique de l'évolution biologique, Basalla refuse de proposer un mécanisme précis par lequel la technologie évolue. Au lieu de cela, il décrit un double processus de « nouveauté » et de « sélection » dans lequel l'inspiration, la science et la nécessité partagent la scène avec un assortiment de facteurs psychologiques, économiques et socioculturels. Il conclut: "C'est un processus désordonné."

CAMBRIDGE, MASS. : Rosalind Williams, professeure adjointe au programme d'écriture du Massachusetts Institute of Technology, aborde les grandes questions sur l'histoire de la technologie dans une direction opposée. Là où George Basalla traite de la transformation des technologies, Williams, auteur de Notes on the Underground (MIT Press), récemment publié, regarde au-delà de la façon dont les technologies transforment le monde. « À la fin du XXe siècle, écrit-elle, nos technologies ressemblent de moins en moins à des outils – des objets discrets qui peuvent être considérés séparément de leur environnement – ​​et ressemblent de plus en plus à des systèmes imbriqués avec des systèmes naturels, parfois à l'échelle mondiale. "

Dans son livre, elle fouille les strates de la culture occidentale en réponse à la question : « Quelles sont les conséquences lorsque les êtres humains vivent dans un environnement qui est principalement construit plutôt que donné ? Elle dit que la question lui est venue pour la première fois il y a plusieurs années au milieu de ses études littéraires : « J'ai remarqué que beaucoup d'histoires sur un futur imaginaire étaient mises sous terre » — des œuvres comme « The Machine Stops » d'EM Forster, When de HG Wells le Sleeper Wakes et l'Underground Man de Gabriel Tarde.

Une grande partie de son étude se concentre sur le XIXe et le début du XXe siècle, l'époque où la révolution industrielle a transformé des villes comme Londres en un monde infernal enfumé et où l'émergence d'infrastructures urbaines modernes - égouts, canalisations, câbles téléphoniques - a fait de l'excavation une activité régulière. partie de la vie urbaine. C'était aussi une époque où la transformation technologique de l'environnement influença la littérature de l'aliénation de Kafka et Dostoïevski, la critique sociale de Dickens et la satire de H. G. Wells.

Williams a conclu qu'une transformation fondamentale de l'expérience humaine est en train de se produire. « L'objectif de transformer l'environnement est peut-être ancien », écrit-elle, « mais notre capacité à réaliser cet objectif est sans précédent. » La seule période comparable était à l'aube de l'agriculture, ce moment traumatisant où hommes et femmes sacrifiaient leur liberté nomade de chasseurs-cueilleurs pour la sécurité relative de la vie liée au sol. "Nous sommes maintenant embarqués dans une autre période de deuil et de bouleversements culturels, alors que nous regardons un mode de vie qui s'estompe."

Williams reconnaît que l'essor de l'environnement manufacturé n'est guère mauvais. « Quand vous voyez une jolie prairie remplacée par un centre commercial et un parking, cela peut être dérangeant », dit-elle. « Mais à l'intérieur, un centre commercial peut offrir un monde qui plaît à beaucoup de gens. Beaucoup de malaises du monde extérieur sont supprimés. Aussi, l'environnement manufacturé est encore plus répandu qu'on ne le pense. Il est facile d'oublier que les étendues luxuriantes de nombreux parcs publics sont autant un environnement manufacturé que les tranchées de la Première Guerre mondiale. Williams note que les récentes discussions sur l'environnement peuvent nous obliger à modifier notre définition des environnements naturels et manufacturés. « Si vous regardez en termes globaux, vous pouvez voir qu'il n'y a pas de frontière sans fin. Nous vivons dans un système fermé. Nous sommes déjà sous la surface.


La nouvelle ère de l'information

Le fondateur de LinkedIn, Reid Hoffman, a déclaré récemment « que si le Web 1.0 était impliqué aller chercher, obtenir des données et une certaine interactivité limitée, et si le Web 2.0 implique identités réelles et de vraies relations, alors Web 3.0 sera identités réelles générant des quantités massives de données.”

Reid est un visionnaire et avait certainement ce droit. Mais les informations que Reid a décrites ne sont que la pointe de l'iceberg. Nous recueillons déjà mille fois plus de données que cela. La croissance est exponentielle et les opportunités d'innovation sont encore plus importantes que la Silicon Valley ne peut l'imaginer.

Je vais expliquer pourquoi je crois cela. Mais permettez-moi de commencer par une courte leçon d'histoire.

Au fil des siècles, nous avons recueilli de nombreuses données sur des sujets tels que le climat, la démographie et les transactions commerciales et gouvernementales. Nos agriculteurs surveillaient la météo pour savoir quand faire pousser leurs cultures. Nous avions des registres fonciers pour pouvoir posséder des biens et nous avons développé des annuaires téléphoniques pour pouvoir trouver des gens. Le Web 1.0 a permis de rendre ces informations disponibles et consultables dans le monde entier.

Cela a rapidement évolué vers le Web 2.0. Désormais, des données étaient collectées sur les nouvelles que nous lisons, où nous avons fait nos achats, sur quels sites nous avons surfé, quelle musique nous avons écoutée, quels films nous avons regardés et où nous avons voyagé. Et « les pouvoirs en place » ont commencé à recueillir des informations sur notre âge, notre santé, notre éducation et notre statut socio-économique.

Avec l'avènement de LinkedIn, Myspace, Facebook, Twitter et de nombreux autres outils de médias sociaux, le Web est devenu « social » et « les pouvoirs en place » ont commencé à tout apprendre sur notre histoire professionnelle, nos contacts sociaux et commerciaux, et ce que nous aimons—notre nourriture, nos divertissements, nos préférences sexuelles, etc. C'est ce que Reid Hoffman appelle le Web 3.0.

Mais il se passe beaucoup plus de choses dans le monde du Web 3.0. Ce n'est pas seulement "social".

En 2009, le président Obama a lancé un ambitieux programme de modernisation de notre système de santé en rendant tous les dossiers de santé standardisés et électroniques. L'objectif est de numériser tous les dossiers médicaux papier, pour l'ensemble de la population américaine, et de les mettre en ligne. Ainsi, une salle d'urgence aura un accès immédiat aux antécédents médicaux d'un patient, l'efficacité des médicaments pourra être recherchée sur de larges populations et les médecins généralistes et spécialistes pourront coordonner leurs traitements.

Le gouvernement ouvre également ses énormes ensembles de données d'informations avec l'initiative Data.gov. Quatre cent mille ensembles de données sont déjà disponibles et d'autres sont ajoutés chaque semaine. Ils comprennent des données régionales sur l'efficacité des services gouvernementaux, sur la pauvreté et la richesse, l'éducation, les dépenses du gouvernement fédéral, les transports, etc. Nous pouvons, par exemple, créer des applications qui incitent les écoles ou les prestataires de performances des localités. Et nous pouvons tenir le gouvernement plus responsable en analysant ses dépenses et son gaspillage.

Il y a plus de 24 heures de vidéo téléchargées sur YouTube chaque minute, et beaucoup plus de vidéos sont collectées dans le monde entier grâce aux caméras de surveillance que vous voyez partout. Que nous le réalisions ou non, nos téléphones portables sont capables de suivre chacun de nos mouvements, où que nous allions, à quelle vitesse nous nous déplaçons et à quelle heure nous nous réveillons. Diverses applications mobiles commencent à enregistrer ces données.

Et puis il y a le génome humain. Nous n'avons appris à séquencer cela qu'il y a une décennie à un coût de milliards de dollars. Le prix du séquençage du génome d'un individu chute à un rythme doublement exponentiel, passant de millions à environ 10 000 $ par séquence en 2011. Plus d'un million d'individus devraient être séquencés en 2013. Il ne faudra pas longtemps avant que le séquençage du génome coûte 100 $. ou est gratuit—avec les services que vous achetez (comme avec les téléphones portables).

Imaginez maintenant les possibilités qui pourraient découler de l'accès à une intégration de ces collectes de données : être capable de faire correspondre votre ADN à celui d'une autre personne et d'apprendre quelles maladies l'autre personne a eues et l'efficacité de différents médicaments pour la guérir apprendre les maladies de l'autre personne capacités, allergies, aime et n'aime pas qui sait, peut-être être capable de trouver une âme sœur ADN. Nous entrons dans une ère de médecine participative, participative et basée sur la génomique, basée sur les données. (Si cela vous intéresse, le Dr Daniel Kraft, un médecin-scientifique qui préside la filière Médecine de la Singularity University, organise le mois prochain un programme appelé FutureMed, qui rassemble des cliniciens, des experts en IA, des bioinformaticiens, des dispositifs médicaux et pharmaceutiques. dirigeants, entrepreneurs et investisseurs pour discuter de ces technologies.)

Vous pensez peut-être que les États-Unis sont en tête de la collecte d'informations. Mais le projet le plus ambitieux au monde se déroule en Inde. Son gouvernement recueille des données démographiques, des empreintes digitales et des scans d'iris de tous ses 1,2 milliard d'habitants. Cela conduira à la création de la base de données d'identités la plus grande et la plus complexe au monde. Je couvrirai ce sujet dans un prochain article.

Ce n'est pas que du vin et des roses. Il y a des implications majeures en matière de confidentialité et de sécurité telles que celles dont j'ai discuté dans cet article. Oubliez les « pouvoirs en place » : seules les informations que Google recueille aujourd'hui rendraient Big Brother envieux. Après tout, Google est capable de lire nos e-mails avant même que nous ne le fassions. Il sait qui sont nos amis et ce qu'ils nous disent en toute confiance. Imaginez ce qui se passe une fois que Google a accès à nos informations ADN.

Quels que soient les risques et les implications pour la sécurité, la technologie progressera cependant.

Cette période de l'histoire a été appelée l'ère de l'information car elle permet un accès instantané à des connaissances qui auraient été difficiles ou impossibles à trouver auparavant. Je dirais que nous sommes bien au-delà de cela, nous sommes au début d'une nouvelle ère : la Nouvelle ère de l'information.

Lors des précédentes révolutions technologiques, des entreprises telles qu'IBM, Microsoft, Oracle, Google et Facebook sont nées. Ces géants s'embourbent dans les technologies qu'ils ont aidé à créer, ils stagnent parce qu'ils gagnent trop d'argent et ont peur de devenir obsolètes. Ce sont des startups ambitieuses qui viennent changer le monde. J'ai peu de doute que les prochains Facebook et Google sont déjà en train d'éclore dans un garage quelque part.

J'ai discuté de tout cela et bien plus encore dans un discours que j'ai prononcé lors de la récente conférence midVentures Data 2.0. Cette vidéo est ci-dessous, et vous pouvez trouver de nombreuses autres discussions sur le site Web de la conférence.


L'âge des ténèbres grec

La Grèce était devenue un pôle majeur d'activité et de culture sur la Méditerranée à la fin de l'âge du bronze. La civilisation mycénienne était riche en richesses matérielles provenant du commerce. Les Mycéniens ont construit de grands palais et une société avec une hiérarchie de classe stricte.

Mais vers 1200 av. La Grèce mycénienne s'effondre. La Grèce est entrée dans une période de troubles parfois appelée l'âge des ténèbres grec.

Les archéologues pensent qu'il y a peut-être eu une période de famine au cours de laquelle la population de la Grèce a chuté de façon spectaculaire pendant cette période. Les grandes villes (à l'exception d'Athènes) ont été abandonnées. Au fur et à mesure que les sociétés urbaines se sont scindées, les gens se sont déplacés vers des groupes plus petits et plus pastoraux axés sur l'élevage du bétail.

La Grèce mycénienne avait été une société alphabétisée, mais les Grecs du début de l'âge du fer n'ont laissé aucune trace écrite, ce qui a conduit certains érudits à croire qu'ils étaient analphabètes. Peu d'artefacts ou de ruines subsistent de la période, qui a duré environ 300 ans.

À la fin de l'âge du fer, l'économie grecque s'était rétablie et la Grèce était entrée dans sa période "classique". La Grèce classique était une époque de réalisations culturelles dont le Parthénon, le théâtre grec et les philosophes dont Socrate.

La période classique a également apporté des réformes politiques et a introduit le monde à un nouveau système de gouvernement connu sous le nom de demokratia, ou “rule by the people.”


Histoire

Papier en Allemagne

Le papier a été inventé par les Chinois vers 105 après JC pendant la dynastie Han et s'est répandu lentement vers l'ouest via Samarkand et Bagdad. La fabrication et la fabrication de papier en Europe ont commencé dans la péninsule ibérique, aujourd'hui le Portugal, l'Espagne et la Sicile au 10ème siècle par les musulmans qui y vivaient à l'époque, et se sont lentement étendues à l'Italie et au sud de la France pour atteindre l'Allemagne vers 1400.

Renaissance

Invention de la presse écrite

Période Tudor

La période Tudor fait généralement référence à la période entre 1485 et 1603, en particulier en ce qui concerne l'histoire de l'Angleterre et du Pays de Galles. Cela coïncide avec le règne de la dynastie Tudor en Angleterre dont le premier monarque était Henri VII (1457 – 1509). En termes de siècle entier, Guy (1988) soutient que « l'Angleterre était économiquement plus saine, plus vaste et plus optimiste sous les Tudor » qu'à aucun autre moment en mille ans.[1]

La modernité

Selon l'un des livres de Marshall Berman (Berman 1982, 16-17), la modernité est périodisée en trois phases conventionnelles (appelées "Early", "Classical" et "Late", respectivement, par Peter Osborne (1992, 25) :
Première modernité : 1500-1789 (ou 1453-1789 dans l'historiographie traditionnelle)
Modernité classique : 1789-1900 (correspondant au long 19e siècle (1789-1914) dans le schéma de Hobsbawm)
Modernité tardive : 1900-1989
Certains auteurs, comme Lyotard et Baudrillard, pensent que la modernité a pris fin au milieu ou à la fin du 20e siècle et ont ainsi défini une période postérieure à la modernité, à savoir

Siècle des Lumières

L'Âge des Lumières (ou simplement l'Âge des Lumières ou l'Âge de la Raison) était un mouvement culturel d'intellectuels aux XVIIe et XVIIIe siècles, d'abord en Europe et plus tard dans les colonies américaines. Son but était de réformer la société en utilisant la raison, de remettre en question les idées fondées sur la tradition et la foi, et de faire progresser les connaissances grâce à la méthode scientifique. Il a promu la science, le scepticisme et les échanges intellectuels et s'est opposé à la superstition,[1] à l'intolérance et à certains abus de la part de l'Église et de l'État.

Révolution industrielle

La révolution industrielle était une période de 1750 à 1850 où les changements dans l'agriculture, la fabrication, l'exploitation minière, les transports et la technologie ont eu un effet profond sur les conditions sociales, économiques et culturelles de l'époque. Il a commencé en Grande-Bretagne, puis s'est ensuite répandu dans toute l'Europe occidentale, l'Amérique du Nord, le Japon et finalement le reste du monde.

Véhicule routier à vapeur

Nicolas-Joseph Cugnot est largement crédité de la construction du premier véhicule mécanique ou automobile automoteur à grande échelle vers 1769, il a créé un tricycle à vapeur.[12] Il a également construit deux tracteurs à vapeur pour l'armée française, dont l'un est conservé au Conservatoire National des Arts et Métiers de France.[13] Ses inventions ont cependant été handicapées par des problèmes d'approvisionnement en eau et de maintien de la pression de vapeur.[13] En 1801, Richard Trevithick a construit et présenté sa locomotive de route Puffing Devil, considérée par beaucoup comme la première démonstration d'un véhicule routier à vapeur. Il était incapable de maintenir une pression de vapeur suffisante pendant de longues périodes et était de peu d'utilité pratique.

Révolution française

La Révolution française (français : Révolution française 1789-1799)

Vols frères Wright

Les vols des frères Wright en 1903 sont reconnus par la Fédération Aéronautique Internationale (FAI), l'organisme de normalisation et de tenue de dossiers pour l'aéronautique, comme « le premier vol soutenu et contrôlé à moteur plus lourd que l'air »[14]. En 1905, le Wright Flyer III était capable de voler de manière entièrement contrôlable et stable pendant de longues périodes.

Guerre froide

La guerre froide, souvent datée de 1945-1991, était un état soutenu de tension politique et militaire entre les puissances du monde occidental, dominé par les États-Unis avec l'OTAN et d'autres alliés contre les puissances du monde oriental, dominé par l'Union soviétique avec son Pacte de Varsovie et d'autres alliés. L'Union soviétique détenait des États satellites en particulier dans le Pacte de Varsovie en Europe de l'Est ainsi qu'en Asie.[1]

Opérations à la surface lunaire

Les astronautes ont planifié le placement du Early Apollo Scientific Experiment Package (EASEP)[23] et du drapeau américain en étudiant leur site d'atterrissage à travers les fenêtres triangulaires jumelles d'Eagle, qui leur ont donné un champ de vision de 60°. La préparation a nécessité plus de deux heures que prévu. Armstrong a d'abord eu quelques difficultés à se faufiler à travers la trappe avec son système de support de vie portable (PLSS). Selon le vétéran marcheur lunaire John Young, une refonte du LM pour incorporer une trappe plus petite n'avait pas été suivie d'une refonte du sac à dos PLSS, de sorte que certaines des fréquences cardiaques les plus élevées enregistrées par les astronautes d'Apollo se sont produites pendant la sortie et l'entrée du LM. [ 24][25]

L'empreinte d'Aldrin fait partie d'une expérience pour tester les propriétés du régolithe lunaire
À 02:39 UTC le lundi 21 juillet 1969, Armstrong a ouvert l'écoutille et à 02:51 UTC a commencé sa descente vers la surface lunaire.

En 1972, Unix a été réécrit dans le langage de programmation C, contrairement à l'idée générale de l'époque "qu'un élément aussi complexe qu'un système d'exploitation, qui doit gérer des événements critiques dans le temps, devait être écrit exclusivement en langage assembleur".[11] La migration du langage assembleur vers le langage de niveau supérieur C a abouti à un logiciel beaucoup plus portable, ne nécessitant qu'une quantité relativement faible de code dépendant de la machine à remplacer lors du portage d'Unix vers d'autres plates-formes informatiques.

MITS Altaïr 8800

Le MITS Altair 8800 était une conception de micro-ordinateur de 1975 basée sur le processeur Intel 8080. L'intérêt s'est accru rapidement après qu'il a été présenté sur la couverture du numéro de janvier 1975 de Popular Electronics, et a été vendu par correspondance par le biais de publicités là-bas, dans Radio-Electronics et d'autres magazines d'amateurs. Les concepteurs espéraient vendre quelques centaines de kits à construire soi-même aux amateurs et ont été surpris lorsqu'ils en ont vendu des milliers le premier mois.[1] L'Altair a également séduit les particuliers et les entreprises qui voulaient simplement un ordinateur et ont acheté la version assemblée.[2] Aujourd'hui, l'Altair est largement reconnu comme l'étincelle qui a conduit à la révolution des micro-ordinateurs des prochaines années :

Commodore PET

Janvier – Le premier ordinateur personnel tout-en-un au monde (clavier/écran/stockage sur bande), le Commodore PET, est présenté au Consumer Electronics Show de Chicago

PC IBM

Le 12 août 1981, IBM a publié l'ordinateur personnel IBM.[6] Le PC IBM utilisait le nouveau processeur Intel 8088. Comme les autres processeurs 16 bits, il pouvait accéder jusqu'à 1 mégaoctet de RAM, mais il utilisait un bus de données large de 8 bits pour la mémoire et les périphériques. Cette conception a permis l'utilisation de la grande famille de puces de support compatibles 8 bits, facilement disponibles et relativement peu coûteuses. IBM a décidé d'utiliser l'Intel 8088 après avoir d'abord envisagé le Motorola 68000 et l'Intel i8086, car les deux autres étaient considérés comme trop puissants pour leurs besoins.[7][8] La réputation d'IBM dans l'informatique d'entreprise, combinée à un marché rapide de périphériques tiers et à l'introduction ultérieure d'IBM PC compatibles d'autres fournisseurs, a permis à l'architecture IBM PC de prendre une part de marché substantielle des applications d'entreprise.[9]

Fondation du logiciel libre

4 octobre – La Free Software Foundation est fondée dans le Massachusetts, aux États-Unis.

Postmodernité

Postmodernité (années 1930/1950/1990-présent). D'autres théoriciens, cependant, considèrent la période allant de la fin du 20e siècle à nos jours comme simplement une autre phase de la modernité que Bauman appelle cette phase « modernité liquide », Giddens l'appelle « haute modernité » (voir les descriptions de la postmodernité).

Économie de la connaissance

L'économie du savoir est également considérée comme la dernière étape du développement de la restructuration économique mondiale. Jusqu'à présent, le monde développé est passé d'une économie agricole (ère préindustrielle, principalement le secteur agraire) à une économie industrielle (avec l'ère industrielle, principalement le secteur manufacturier) à une économie post-industrielle/de production de masse (milieu des années 1900, en grande partie le secteur des services) à l'économie du savoir (fin des années 1900 – années 2000, principalement le secteur de la technologie/du capital humain). Cette dernière étape a été marquée par les bouleversements des innovations technologiques et le besoin d'innovation concurrentiel à l'échelle mondiale avec de nouveaux produits et procédés qui se développent à partir de la communauté de la recherche (c'est-à-dire les facteurs de R&D, les universités, les laboratoires, les établissements d'enseignement).

L'Internet

En décembre 1974, la RFC 675 - Specification of Internet Transmission Control Program, de Vinton Cerf, Yogen Dalal et Carl Sunshine, utilisait le terme Internet, comme raccourci pour l'interconnexion. que le nom qu'il est aujourd'hui.[16] L'accès à l'ARPANET a été élargi en 1981 lorsque la National Science Foundation (NSF) a développé le Computer Science Network (CSNET). En 1982, la suite de protocoles Internet (TCP/IP) a été normalisée et le concept d'un réseau mondial de réseaux TCP/IP entièrement interconnectés appelé Internet a été introduit.
L'accès au réseau TCP/IP s'est à nouveau étendu en 1986 lorsque le National Science Foundation Network (NSFNET) a fourni l'accès aux sites de superordinateurs aux États-Unis à partir d'organismes de recherche et d'enseignement, d'abord à 56 kbit/s, puis à 1,5 Mbit/s et 45 Mbit/s. art.[17] Les fournisseurs de services Internet commerciaux (FAI) ont commencé à émerger à la fin des années 1980 et au début des années 1990. L'ARPANET a été mis hors service en 1990. Internet a été commercialisé en 1995 lorsque NSFNET a été mis hors service, supprimant les dernières restrictions sur l'utilisation d'Internet pour acheminer le trafic commercial.

Wikipédia

Wikipedia a été lancé le 15 janvier 2001 par Jimmy Wales et Larry Sanger.[13] Sanger a inventé le nom Wikipédia,[14] qui est un portemanteau de wiki (un type de site Web collaboratif, du mot hawaïen wiki, signifiant « rapide »)[15] et d'encyclopédie. L'écart de Wikipédia par rapport au style de construction d'encyclopédies axé sur les experts et la présence d'un grand nombre de contenus non universitaires ont reçu une grande attention dans la presse écrite. En 2006, le magazine Time a reconnu la participation de Wikipédia à la croissance rapide de la collaboration et de l'interaction en ligne par des millions de personnes dans le monde, en plus de YouTube, MySpace et Facebook.[16] Wikipedia a également été salué comme une source d'informations en raison d'articles liés aux dernières nouvelles souvent mis à jour rapidement.[17][18][19]

Facebook

Facebook est un service de réseautage social lancé en février 2004, détenu et exploité par Facebook, Inc.[5] En septembre 2012, Facebook comptait plus d'un milliard d'utilisateurs actifs[6], dont plus de la moitié utilisent Facebook sur un appareil mobile[7]. Les utilisateurs doivent s'inscrire avant d'utiliser le site, après quoi ils peuvent créer un profil personnel, ajouter d'autres utilisateurs en tant qu'amis et échanger des messages, y compris des notifications automatiques lorsqu'ils mettent à jour leur profil. De plus, les utilisateurs peuvent rejoindre des groupes d'utilisateurs d'intérêt commun, organisés par lieu de travail, école ou collège, ou d'autres caractéristiques, et classer leurs amis dans des listes telles que "Personnes du travail" ou "Amis proches".

Twitter

Twitter est un service de réseautage social en ligne et un service de microblogging qui permet à ses utilisateurs d'envoyer et de lire des messages textuels d'un maximum de 140 caractères, appelés "tweets".
Il a été créé en mars 2006 par Jack Dorsey et lancé en juillet


3 des plus grandes inventions technologiques de l'époque et les laboratoires dans lesquels elles ont été découvertes

Les avancées technologiques en sont venues à définir les normes sociétales, mais où certaines de ces innovations ont-elles été imaginées ?

Les laboratoires scientifiques ont été le théâtre de nombreuses découvertes parmi les plus excitantes et les plus importantes de l'histoire de l'humanité. Des percées majeures dans la recherche médicale aux avancées technologiques spectaculaires, ils ont fait progresser nos connaissances dans un large éventail de domaines.

Bien entendu, l'aspect et la convivialité de ces environnements peuvent varier considérablement selon la nature de la recherche qui s'y déroule. Comme Innova Design Solutions, les experts en installation de laboratoire le notent, il est essentiel d'adapter la conception des laboratoires afin qu'ils répondent aux besoins spécifiques des personnes qui les utilisent.

Pour renforcer ce point, voici trois des plus grandes inventions de notre temps et les laboratoires très différents dans lesquels elles ont été découvertes.

1. Les empreintes génétiques

Les empreintes génétiques sont désormais considérées comme allant de soi. Que ce soit dans les procès pénaux, les tests de paternité et de maternité, l'identification personnelle ou le diagnostic ou le traitement de maladies héréditaires, les gens sont habitués à avoir accès à cette technique.

Il fournit aux scientifiques un moyen de comparer les parties des plus de trois milliards d'unités du génome humain qui présentent le plus de variations entre les personnes.

L'approche a été découverte par accident par le biologiste moléculaire Alec Jeffreys en 1984. Il travaillait sur une technique qui, espérait-il, l'aiderait à étudier des maladies héréditaires comme la mucoviscidose.

According to Jeffreys, he had a “eureka moment” when observing an X-ray film of a DNA experiment which unexpectedly revealed similarities and differences between the DNA of members of one of his technician’s family.

His university lab may have been fairly conventional, but what he did with it over the next couple of days was anything but. He and his staff had realised that DNA profiling could potentially be used at crime scenes, but they weren’t sure if it would be possible to take useable DNA samples from dead cells.

To test this, Jeffreys effectively turned his lab into the first ever setting for a crime scene DNA analysis. He spent two days cutting himself and leaving bloodstains on surfaces. These marks were then tested and the team proved the DNA was intact.

2. The internet

Sometimes, scientists like to escape the confines of a traditional lab and take their experiments into the field – or even into the pub.

In fact, one of these more unorthodox settings was used for a essential experiment in the history of the internet.

Of course, this communication network wasn’t invented in one experiment. It took decades for it to be transformed from its original incarnation, which was a network used by the military, into the vast global system we’re familiar with today.

However, there were a number of pivotal moments along the way, and one of the most significant occurred in a beer garden in Palo Alto, California.

In August 1976, a team of scientists from the Stanford Research Institute set up a computer terminal on a table around the back of the popular bar Rossotti’s.

While sipping beer from plastic cups in the California sunshine, the pioneering researchers conducted what can be described as the first internet transmission (via a mobile radio lab housed in a van in the car park). Their experiment in this makeshift open air lab helped to prove that the technology could work.

3. Wireless electricity

From smartphones, to laptops, to MP3 players, people’s lives are now dominated by technology that requires power – and they generally need wires to recharge these devices.

However, this may not be the case for much longer. In 2007, Professor Marin Soljačić from the Massachusetts Institute of Technology (MIT) had the idea of transferring power from wired infrastructure to devices using magnetic fields.

With his team at MIT, he set up a ground breaking lab experiment consisting of two copper wire coils, each suspended with a nylon thread. One of the coils was connected to an AC power supply, the other to a light bulb.

As the team predicted, when electricity was supplied to the first coil, this caused the light bulb connected to the other coil to light up – despite the fact the two coils were not connected.

To highlight the safety of the system, the scientists even had their picture taken sitting between the power source and power capture coils as the 60 watts of electricity were being transferred.

Following the successful experiment, a company called WiTricity was formed to take the research forward from the labs at MIT. It is working on a range of systems that can power devices up to eight feet away, including computers and even electric vehicles.

The company predicts that the technology will eventually be able to power many household appliances and gadgets.

From a conventional lab, to an impromptu crime scene, to a Californian beer garden, these examples show how varied the research settings of important discoveries and inventions can be.


About Information Age

We provide general intelligence for technologists in the information age.

We support CTOs, CIOs and other technology leaders in managing business critical issues both for today and in the future.

Information Age supports its growing community of CTO and technology leaders with its:

  • Online portal information-age.com which provides the latest news, analysis, guidance and research for our CTO community.
  • Live events program comprising a range of events to facilitate networking between CTOs and technology leaders, create forums for sharing best practice in the sector, and provide opportunities to celebrate the achievements of our CTO community. Our events include the Data Leadership Summit & Data Leaders Awards and Tech Leaders Summit & Awards. We also champion women in the technology sector with our Women in IT Awards series in the UK and USA (the largest technology diversity event series in the world), Tomorrow’s Tech Leaders Today careers fair and the Future Stars of Tech awards.

Our history

Information Age was founded in 1995 as a print magazine. The brand launched a website in 2001 and evolved into a fully digital proposition in 2017. The Data Leadership Summit was launched in 2011, expanding into the awards event, together with the launch of the Tech Leaders Summit, the following year. The Tech Leaders Awards was launched in 2017.

Get involved

Sign up for our weekly newsletter to receive insight, analysis and guidance on the latest news and technology trends impacting the CTO.


For the past few weeks in History of the Information Age, each student has been working on two entries on topics relevant to the Information Age to add to a class timeline. For my two entries, I chose to learn about Apple’s 1980s “Kid’s Can’t Wait” program, and the advent of EchoNYC, an early online&hellip Read More HIST 427: Information Age Timeline Entries

This week in History of the Information Age, we discussed a brief history of communication technology, cyber bullying in the age of social media, and the dark and deep web. Cyber Bullying Admittedly, when I saw that we were assigned readings on cyber bulling and social media, I was worried that I was about to&hellip Read More HIST 427: Cyber Bullying and the Dark Web


Beyond the Information Age

Image: infocux Technologies/Flickr

We live in the information age, which according to Wikipedia is a period in human history characterized by the shift from industrial production to one based on information and computerization.

Nothing surprising there, except for the idea that this is “a period in human history” — which tends to suggest it will come to an end at some point. The industrial revolution in the late nineteenth century ushered in the industrial age, and the digital revolution in the mid twentieth century spurred the emergence of the information age. So it is not entirely crazy to speculate about what might lie beyond the information age.

Of course, I am not arguing that information will become obsolete. Firms will always need to harness information in effective ways, just as most of them still need industrial techniques to make their products cheaply and efficiently. My point, instead, is that information will become necessary but not sufficient for firms to be successful. All this talk of “big data,” for example, feels like an attempt to strain a few more drops of juice out of an already-squeezed orange, just as Six Sigma was a way of squeezing more value out of the quality revolution. Both are valuable concepts, but their benefits are incremental, not revolutionary.

So just as night follows day, the information age will eventually be superseded by another age and it behooves those with senior executive responsibility to develop a point of view on what that age might look like.

So here is a specific question that helps us develop this point of view — one that was a topic of debate at our annual Global Leadership Summit at London Business School, focused this year on the rapid advance of technology and its impact on not only business, but society, politics and the economy: What would a world with too much information look like? And what problems would it create? I think there are at least four answers:

1. Paralysis through Analysis. In a world of ubiquitous information, there is always more out there. Information gathering is easy, and often quite enjoyable as well. My students frequently complain that they need more information before coming to a view on a difficult case-study decision. Many corporate decisions are delayed because of the need for further analysis. Whether due to the complexity of the decision in front of them, or because of the fear of not performing sufficient due diligence, the easy option facing any executive is simply to request more information.

2. Easy access to data makes us intellectually lazy. Many firms have invested a lot of money in “big data” and sophisticated data-crunching techniques. But a data-driven approach to analysis has a couple of big flaws. First, the bigger the database, the easier it is to find support for any hypothesis you choose to test. Second, big data makes us lazy – we allow rapid processing power to substitute for thinking and judgment. One example: pharmaceutical companies fell in love with “high throughput screening” techniques in the 1990s, as a way of testing out all possible molecular combinations to match a target. It was a bust. Most have now moved back towards a more rational model based around deep understanding, experience and intuition.

3. Impulsive and Flighty Consumers. Watch how your fellow commuters juggle their smartphone, tablet and Kindle. Or marvel at your teenager doing his homework. With multiple sources of stimulation available at our fingertips, the capacity to focus and concentrate on a specific activity is falling. This has implications for how firms manage their internal processes – with much greater emphasis being placed on holding people’s attention than before. It also has massive consequences for how firms manage their consumer relationships, as the traditional sources of “stickiness” in those relationships are being eroded.

4. A little learning is a dangerous thing. We are quick to access information that helps us, but we often lack the ability to make sense of it, or to use it appropriately. Doctors encounter this problem on a daily basis, as patients show up with (often incorrect) self-diagnoses. Senior executives second-guess their subordinates because their corporate IT system gives them line-of-sight down to detailed plant-level data. We also see this at a societal level: people believe they have the right to information that is in the public interest (think Wikileaks), but they are rarely capable of interpreting and using it in a sensible way. The broader point here is that the democratization of information creates an imbalance between the “top” and “bottom” of society, and most firms are not good at coping with this shift.

Consequences

So what are the consequences of a business world with “too much information”? At an individual level, we face two contrasting risks. One is that we become obsessed with getting to the bottom of a problem, and we keep on digging, desperate to find the truth but taking forever to do so. The other risk is that we become overwhelmed with the amount of information out there and we give up: we realise we cannot actually master the issue at hand, and we end up falling back on a pre-existing belief.

For firms, there are three important consequences. First, they have to become masters of “attention management” — making sure that people are focused on the right set of issues, and not distracted by the dozens of equally-interesting issues that could be discussed. A surplus of , as Nobel Laureate Herbert Simon noted, creates a deficit of attention. That is the real scarce resource today.

Second, firms have to get the right balance between information and judgment in making important decisions. As Jeff Bezos, founder and CEO of Amazon, observed, there are two types of decisions: “There are decisions that can be made by analysis. These are the best kind of decisions. They are fact-based decisions that overrule the hierarchy. Unfortunately there’s this whole other set of decisions you can’t boil down to a math problem.” One of the hallmarks of Amazon’s success, arguably, has been its capacity to make the big calls based on judgement and intuition.

Finally, the ubiquity of information means a careful balance is needed when it comes to sharing. Keeping everything secret isn’t going to work anymore — but pure transparency has its risks as well. Firms have to become smarter at figuring out what information to share with their employees, and what consumer information to keep track of for their own benefits.

For the last forty years, firms have built their competitive positions on harnessing information and knowledge more effectively than others. But with information now ubiquitous and increasingly shared across firms, these traditional sources of advantage are simply table-stakes. The most successful companies in the future will be smart about scanning for information and accessing the knowledge of their employees, but they will favour action over analysis, and they will harness the intuition and gut-feeling of their employees in combination with rational analysis.

Julian Birkinshaw is Professor and Chair of Strategy and Entrepreneurship at the London Business School.


Contenu

Brief history Edit

The underlying technology was invented in the later quarter of the 19th century, including Babbage's Analytical Engine and the telegraph. Digital communication became economical for widespread adoption after the invention of the personal computer. Claude Shannon, a Bell Labs mathematician, is credited for having laid out the foundations of digitalization in his pioneering 1948 article, A Mathematical Theory of Communication. [5] The digital revolution converted technology from analog format to digital format. By doing this, it became possible to make copies that were identical to the original. In digital communications, for example, repeating hardware was able to amplify the digital signal and pass it on with no loss of information in the signal. Of equal importance to the revolution was the ability to easily move the digital information between media, and to access or distribute it remotely.

The turning point of the revolution was the change from analogue to digitally recorded music. [6] During the 1980s the digital format of optical compact discs gradually replaced analog formats, such as vinyl records and cassette tapes, as the popular medium of choice. [7]

1947–1969: Origins Edit

In 1947, the first working transistor, the germanium-based point-contact transistor, was invented by John Bardeen and Walter Houser Brattain while working under William Shockley at Bell Labs. [8] This led the way to more advanced digital computers. From the late 1940s, universities, military, and businesses developed computer systems to digitally replicate and automate previously manually performed mathematical calculations, with the LEO being the first commercially available general-purpose computer.

Other important technological developments included the invention of the monolithic integrated circuit chip by Robert Noyce at Fairchild Semiconductor in 1959 [9] (made possible by the planar process developed by Jean Hoerni), [10] the first successful metal-oxide-semiconductor field-effect transistor (MOSFET, or MOS transistor) by Mohamed Atalla and Dawon Kahng at Bell Labs in 1959, [11] and the development of the complementary MOS (CMOS) process by Frank Wanlass and Chih-Tang Sah at Fairchild in 1963. [12]

Following the development of MOS integrated circuit chips in the early 1960s, MOS chips reached higher transistor density and lower manufacturing costs than bipolar integrated circuits by 1964. MOS chips further increased in complexity at a rate predicted by Moore's law, leading to large-scale integration (LSI) with hundreds of transistors on a single MOS chip by the late 1960s. The application of MOS LSI chips to computing was the basis for the first microprocessors, as engineers began recognizing that a complete computer processor could be contained on a single MOS LSI chip. [13] In 1968, Fairchild engineer Federico Faggin improved MOS technology with his development of the silicon-gate MOS chip, which he later used to develop the Intel 4004, the first single-chip microprocessor. [14] It was released by Intel in 1971, and laid the foundations for the microcomputer revolution that began in the 1970s.

MOS technology also led to the development of semiconductor image sensors suitable for digital cameras. [15] The first such image sensor was the charge-coupled device, developed by Willard S. Boyle and George E. Smith at Bell Labs in 1969, [16] based on MOS capacitor technology. [15]

1969–1989: Invention of the Internet, rise of home computers Edit

The public was first introduced to the concepts that led to the Internet when a message was sent over the ARPANET in 1969. Packet switched networks such as ARPANET, Mark I, CYCLADES, Merit Network, Tymnet, and Telenet, were developed in the late 1960s and early 1970s using a variety of protocols. The ARPANET in particular led to the development of protocols for internetworking, in which multiple separate networks could be joined together into a network of networks.

The Whole Earth movement of the 1960s advocated the use of new technology. [17]

In the 1970s, the home computer was introduced, [18] time-sharing computers, [19] the video game console, the first coin-op video games, [20] [21] and the golden age of arcade video games began with Space Invaders. As digital technology proliferated, and the switch from analog to digital record keeping became the new standard in business, a relatively new job description was popularized, the data entry clerk. Culled from the ranks of secretaries and typists from earlier decades, the data entry clerk's job was to convert analog data (customer records, invoices, etc.) into digital data.

In developed nations, computers achieved semi-ubiquity during the 1980s as they made their way into schools, homes, business, and industry. Automated teller machines, industrial robots, CGI in film and television, electronic music, bulletin board systems, and video games all fueled what became the zeitgeist of the 1980s. Millions of people purchased home computers, making household names of early personal computer manufacturers such as Apple, Commodore, and Tandy. To this day the Commodore 64 is often cited as the best selling computer of all time, having sold 17 million units (by some accounts) [22] between 1982 and 1994.

In 1984, the U.S. Census Bureau began collecting data on computer and Internet use in the United States their first survey showed that 8.2% of all U.S. households owned a personal computer in 1984, and that households with children under the age of 18 were nearly twice as likely to own one at 15.3% (middle and upper middle class households were the most likely to own one, at 22.9%). [23] By 1989, 15% of all U.S. households owned a computer, and nearly 30% of households with children under the age of 18 owned one. [24] By the late 1980s, many businesses were dependent on computers and digital technology.

Motorola created the first mobile phone, Motorola DynaTac, in 1983. However, this device used analog communication - digital cell phones were not sold commercially until 1991 when the 2G network started to be opened in Finland to accommodate the unexpected demand for cell phones that was becoming apparent in the late 1980s.

Compute! magazine predicted that CD-ROM would be the centerpiece of the revolution, with multiple household devices reading the discs. [25]

The first true digital camera was created in 1988, and the first were marketed in December 1989 in Japan and in 1990 in the United States. [26] By the mid-2000s, they had eclipsed traditional film in popularity.

Digital ink was also invented in the late 1980s. Disney's CAPS system (created 1988) was used for a scene in 1989's The Little Mermaid and for all their animation films between 1990's The Rescuers Down Under and 2004's Home on the Range.

1989–2005: Invention of the World Wide Web, mainstreaming of the Internet, Web 1.0 Edit

The first public digital HDTV broadcast was of the 1990 World Cup that June it was played in 10 theaters in Spain and Italy. However, HDTV did not become a standard until the mid-2000s outside Japan.

The World Wide Web became publicly accessible in 1991, which had been available only to government and universities. [27] In 1993 Marc Andreessen and Eric Bina introduced Mosaic, the first web browser capable of displaying inline images [28] and the basis for later browsers such as Netscape Navigator and Internet Explorer. Stanford Federal Credit Union was the first financial institution to offer online internet banking services to all of its members in October 1994. [29] In 1996 OP Financial Group, also a cooperative bank, became the second online bank in the world and the first in Europe. [30] The Internet expanded quickly, and by 1996, it was part of mass culture and many businesses listed websites in their ads. By 1999 almost every country had a connection, and nearly half of Americans and people in several other countries used the Internet on a regular basis. However throughout the 1990s, "getting online" entailed complicated configuration, and dial-up was the only connection type affordable by individual users the present day mass Internet culture was not possible.

In 1989 about 15% of all households in the United States owned a personal computer. [ citation requise ]

% [31] for households with children nearly 30% owned a computer in 1989, and in 2000 65% owned one.

Cell phones became as ubiquitous as computers by the early 2000s, with movie theaters beginning to show ads telling people to silence their phones. They also became much more advanced than phones of the 1990s, most of which only took calls or at most allowed for the playing of simple games.

Text messaging existed in the 1990s but was not widely used until the early 2000s, when it became a cultural phenomenon.

The digital revolution became truly global in this time as well - after revolutionizing society in the developed world in the 1990s, the digital revolution spread to the masses in the developing world in the 2000s.

By 2000, a majority of U.S. households had at least one personal computer and internet access the following year. [32] In 2002, a majority of U.S. survey respondents reported having a mobile phone. [33]

2005–present: Web 2.0, social media, smartphones, digital TV Edit

In late 2005 the population of the Internet reached 1 billion, [34] and 3 billion people worldwide used cell phones by the end of the decade. HDTV became the standard television broadcasting format in many countries by the end of the decade. In September and December 2006 respectively, Luxembourg and the Netherlands became the first countries to completely transition from analog to digital television. In September 2007, a majority of U.S. survey respondents reported having broadband internet at home. [35]

By 2012, over 2 billion people used the Internet, twice the number using it in 2007. Cloud computing had entered the mainstream by the early 2010s. In January 2013, a majority of U.S. survey respondents reported owning a smartphone. [36] By 2016, half of the world's population was connected [37] and as of 2020, that number has risen to 67%. [38]

In the late 1980s, less than 1% of the world's technologically stored information was in digital format, while it was 94% in 2007, with more than 99% by 2014. [39]

It is estimated that the world's capacity to store information has increased from 2.6 (optimally compressed) exabytes in 1986, to some 5,000 exabytes in 2014 (5 zettabytes). [39] [40]

1990 Edit

  • Cell phone subscribers: 12.5 million (0.25% of world population in 1990) [41]
  • Internet users: 2.8 million (0.05% of world population in 1990) [42]

2000 Edit

  • Cell phone subscribers: 1.5 billion (19% of world population in 2002) [42]
  • Internet users: 631 million (11% of world population in 2002) [42]

2010 Edit

  • Cell phone subscribers: 4 billion (68% of world population in 2010) [43]
  • Internet users: 1.8 billion (26.6% of world population in 2010) [37]

2020 Edit

  • Cell phone subscribers: 4.78 billion (62% of world population in 2020) [44]
  • Internet users: 4.54 billion (59% of world population in 2020) [45]

Conversion of below analog technologies to digital. (The decade indicated is the period when digital became dominant form.)

    to digital computer (1950s) to fax (1980s) , gramophone record and compact cassette to compact disc (1980s and 1990s, although sales of vinyl records have increased again in the 2010s among antique collectors) to DVD (2000s)
  • Analog photography (photographic plate and photographic film) to digital photography (2000s)
  • Analog cinematography (film stock) to digital cinematography (2010s)

Decline or disappearance of below analog technologies:

Disappearance of other technologies also attributed to digital revolution. (Analog–digital classification doesn't apply to these.)

Improvements in digital technologies.

    to laptop to tablet computer to Blu-ray Disc to 4K Blu-ray Disc to 3G to 4G to 5G to smartphone (2010s)
  • Digital watch to smartwatch
  • Analog weighing scale to digital weighing scale

The basic building block of the Digital Revolution is the metal-oxide-semiconductor field-effect transistor (MOSFET, or MOS transistor), [46] which is the most widely manufactured device in history. [47] It is the basis of every microprocessor, memory chip and telecommunication circuit in commercial use. [48] MOSFET scaling (rapid miniaturization of MOS transistors) has been largely responsible for enabling Moore's law, which predicted that transistor counts would increase at an exponential pace. [49] [50] [51]

Following the development of the digital personal computer, MOS microprocessors and memory chips, with their steadily increasing performance and storage, have enabled computer technology to be embedded into a huge range of objects from cameras to personal music players. Also important was the development of transmission technologies including computer networking, the Internet and digital broadcasting. 3G phones, whose social penetration grew exponentially in the 2000s, also played a very large role in the digital revolution as they simultaneously provide ubiquitous entertainment, communications, and online connectivity.

Positive aspects include greater interconnectedness, easier communication, and the exposure of information that in the past could have more easily been suppressed by totalitarian regimes. Michio Kaku wrote in his books Physics of the Future that the failure of the Soviet coup of 1991 was due largely to the existence of technology such as the fax machine and computers that exposed classified information.

The Revolutions of 2011 were enabled by social networking and smartphone technology however these revolutions in hindsight largely failed to reach their goals as hardcore Islamist governments and in Syria a civil war have formed in the absence of the dictatorships that were toppled.

The economic impact of the digital revolution has been wide-ranging. Without the World Wide Web (WWW), for example, globalization and outsourcing would not be nearly as feasible as they are today. The digital revolution radically changed the way individuals and companies interact. Small regional companies were suddenly given access to much larger markets. Concepts such as on-demand software services and manufacturing and rapidly dropping technology costs made possible innovations in all aspects of industry and everyday life.

After initial concerns of an IT productivity paradox, evidence is mounting that digital technologies have significantly increased the productivity and performance of businesses. [52]

The Digital transformation allowed technology to continuously adapt which resulted in a boost in the economy with an increase of productivity. With the increase of technical advances, digital revolution has created a demand for new job skills. Economically, retailers, trucking companies and banks have transitioned into digital format. In addition, the introduction of cryptocurrency like Bitcoin creates faster and secure transactions. [53]

Negative effects include information overload, Internet predators, forms of social isolation, and media saturation. In a poll of prominent members of the national news media, 65 percent said the Internet is hurting journalism more than it is helping [54] by allowing anyone no matter how amateur and unskilled to become a journalist causing information to be muddier and the rise of conspiracy theory in a way it didn't exist in the past.

In some cases, company employees' pervasive use of portable digital devices and work related computers for personal use—email, instant messaging, computer games—were often found to, or perceived to, reduce those companies' productivity. Personal computing and other non-work related digital activities in the workplace thus helped lead to stronger forms of privacy invasion, such as keystroke recording and information filtering applications (spyware and content-control software).

Information sharing and privacy Edit

Privacy in general became a concern during the digital revolution. The ability to store and utilize such large amounts of diverse information opened possibilities for tracking of individual activities and interests. Libertarians and privacy rights advocates feared the possibility of an Orwellian future where centralized power structures control the populace via automatic surveillance and monitoring of personal information in such programs as the CIA's Information Awareness Office. [55] Consumer and labor advocates opposed the ability to direct market to individuals, discriminate in hiring and lending decisions, invasively monitor employee behavior and communications and generally profit from involuntarily shared personal information.

The Internet, especially the WWW in the 1990s, opened whole new avenues for communication and information sharing. The ability to easily and rapidly share information on a global scale brought with it a whole new level of freedom of speech. Individuals and organizations were suddenly given the ability to publish on any topic, to a global audience, at a negligible cost, particularly in comparison to any previous communication technology.

Large cooperative projects could be endeavored (e.g. Open-source software projects, [email protected]). Communities of like-minded individuals were formed (e.g. MySpace, Tribe.net). Small regional companies were suddenly given access to a larger marketplace.

In other cases, special interest groups as well as social and religious institutions found much of the content objectionable, even dangerous. Many parents and religious organizations, especially in the United States, became alarmed by pornography being more readily available to minors. In other circumstances the proliferation of information on such topics as child pornography, building bombs, committing acts of terrorism, and other violent activities were alarming to many different groups of people. Such concerns contributed to arguments for censorship and regulation on the WWW.

Copyright and trademark issues Edit

Copyright and trademark issues also found new life in the digital revolution. The widespread ability of consumers to produce and distribute exact reproductions of protected works dramatically changed the intellectual property landscape, especially in the music, film, and television industries.

The digital revolution, especially regarding privacy, copyright, censorship and information sharing, remains a controversial topic. As the digital revolution progresses it remains unclear to what extent society has been impacted and will be altered in the future.

With the advancement of digital technology Copyright infringements will become difficult to detect. They will occur more frequently, will be difficult to prove and the public will continue to find loopholes around the law. Digital recorders for example, can be used personally and private use making the distributions of copywritten material discreet. [56]

While there have been huge benefits to society from the digital revolution, especially in terms of the accessibility of information, there are a number of concerns. Expanded powers of communication and information sharing, increased capabilities for existing technologies, and the advent of new technology brought with it many potential opportunities for exploitation. The digital revolution helped usher in a new age of mass surveillance, generating a range of new civil and human rights issues. Reliability of data became an issue as information could easily be replicated, but not easily verified. For example, the introduction of Cryptocurrency, opens possibility for illegal trade, such as the sale of drugs, guns and black market transaction. [53] The digital revolution made it possible to store and track facts, articles, statistics, as well as minutiae hitherto unfeasible.

From the perspective of the historian, a large part of human history is known through physical objects from the past that have been found or preserved, particularly in written documents. Digital records are easy to create but also easy to delete and modify. Changes in storage formats can make recovery of data difficult or near impossible, as can the storage of information on obsolete media for which reproduction equipment is unavailable, and even identifying what such data is and whether it is of interest can be near impossible if it is no longer easily readable, or if there is a large number of such files to identify. Information passed off as authentic research or study must be scrutinized and verified. [ citation requise ]

These problems are further compounded by the use of digital rights management and other copy prevention technologies which, being designed to only allow the data to be read on specific machines, may well make future data recovery impossible. The Voyager Golden Record, which is intended to be read by an intelligent extraterrestrial (perhaps a suitable parallel to a human from the distant future), is recorded in analog rather than digital format specifically for easy interpretation and analysis.

List of site sources >>>


Voir la vidéo: La guerre, à lère de lémotion et de linformation permanente (Janvier 2022).