mercredi 7 novembre 2012

Systèmes d'exploitation


Introduction

Système d'exploitation Linux a été créé par un étudiant de l'Université d'Helsinki en Finlande. Le nom du créateur était Linus Torvalds et il avait un intérêt qui s'est transformé en une passion pour Minix, une petite application Unix qui a été développé plus tard dans un système qui a dépassé les normes de Minix. Il a commencé à travailler sur le minix en 1991 et a travaillé très jusqu'en 1994 lorsque la première version de Linux Kernel 1.0 est sorti. Cette kernal Linux définit la fondation à laquelle le système d'exploitation de Linux est formé. Des centaines d'organisations et des entreprises d'aujourd'hui ont embauché des individus et leur permet de sortir de nouvelles versions de systèmes d'exploitation à l'aide kernal Linux.
Fonctionnement de Linux, les fonctionnalités et l'adaptation ont fait de Linux et systèmes d'exploitation Windows sont d'excellentes alternatives à d'autres systèmes d'exploitation. IBM et d'autres entreprises géantes à travers le monde soutiennent Linux et ses travaux en cours, après une décennie de sa sortie initiale. Le système d'exploitation est incorporé dans des puces en utilisant un processus appelé «intégration» et augmente les performances de d'appareils et de dispositifs.

L'histoire de Linux

Depuis les années 1990 certains techniciens informatiques et les gens savy amateurs insistantes qui ont un intérêt dans les ordinateurs développés les systèmes de gestion de bureau. Ces systèmes, y compris GNOME et KDE qui s'exécutent sur des applications sous Linux sont disponibles à tout le monde quel que soit le motif de personnes d'utiliser le système. Linus Torvalds était intéressé à en apprendre les capacités et les fonctionnalités d'un processeur 80386 pour la commutation de tâches. L'application initialement nommé Freax a d'abord été utilisé avec le système d'exploitation Minix.

Tant le Freax et dessins Minix semblait sacrifier les performances de la recherche universitaire et les études. Beaucoup de spécialistes informatiques sont maintenant de faire des hypothèses qui ont changé depuis les années 90. La portabilité est désormais un objectif commun pour ces spécialistes de l'industrie informatique et ce n'est certainement pas une exigence académique pour les logiciels. Différents ports à IA-32, PowerPC, MIPS, Alpha, et ARM ainsi que des produits de support étant fabriqué et vendu à des grossistes et des détaillants, des entreprises commerciales a donné Linus un système Alpha base lorsque les tâches sur la liste des priorités de Linus déplacé jusqu'à un certain point notamment occupé.

Histoire de Windows

Présidents de Microsoft étaient Bill Gates et Paul Allen ont partagé le titre jusqu'en 1977, lorsque Bill Gates est devenu président et vice-président Paul Allen. En 1978, les disques durs de l'Tandy et les machines Apple sont de 5,25 pouces. Premier salon informatique Comdex de Las Vegas présente un microprocesseur 16-bits, Intel et des fabricants qu'ils introduisent une puce 8086. Al Gore arrive avec l'expression «autoroute de l'information." La même année, co-fondateur d'Apple Steve Wozniak a développé le premier langage de programmation appelé Entier de base, cette langue a été rapidement remplacé par le Basic Microsoft Applesoft.

Toujours en 1978, il y avait une machine qui avait une approche intégrée, conception autonome et a un prix inférieur à 800 $, connu sous le nom Commodore PET qui était un Transactor électronique personnel. Le 11/04/78 Microsoft annonce son produit troisième langue, Microsoft COBOL-80. Le 1er Novembre en 1978, après leur introduction troisième langue, ils ont ouvert leur premier bureau international des ventes au Japon. Microsoft délégués ASCII Microsoft, locatwed à Tokyo, asits agent exclusif de vente pour l'Extrême-Orient. Et enfin le réveillon du Nouvel An de 1978 Microsoft a annoncé que les ventes de fin d'année était plus de $ 1 million de dollars. L'année suivante, en Avril 1979 Microsoft BASIC 8080 est le premier microprocesseur à remporter le prix ICP Million Dollar. Les gros ordinateurs ont été dominées par le logiciel pour l'ordinateur central, la reconnaissance de l'ordinateur pc indiqué croissance et l'acceptation dans l'industrie.

Les deux Allen et retour Gates à Bellevue, Washington et d'annoncer son intention d'ouvrir des bureaux dans leur ville natale, devenant ainsi le premier micro-ordinateur société de logiciels dans le Nord-Ouest.

Détails techniques de Linux et systèmes d'exploitation Windows

Un système d'exploitation prend en charge toutes les entrées et sorties à venir à un ordinateur. Il gère les utilisateurs, processus, gestion de la mémoire, de l'imprimerie, des télécommunications, des réseaux et etc Le système d'exploitation envoie des données à un disque, l'imprimante, l'écran et les autres périphériques connectés à l'ordinateur. Un ordinateur ne peut pas fonctionner sans système d'exploitation. Le système d'exploitation indique à la machine la façon de traiter des instructions provenant de périphériques d'entrée et de logiciels en cours d'exécution sur l'ordinateur. Par conséquent, chaque ordinateur est construit différente, les commandes de sortie ou devront être traités différemment. Dans la plupart des cas, un système d'exploitation n'est pas un nid gigantesque de programmes, mais plutôt un système restreint de programmes qui fonctionnent par le noyau ou Kernel. Le système informatique pc est si compact ces petits programmes de soutien, il est plus facile de réécrire les paquets de pièces r du système que de redessiner tout un programme.

Lors de sa création OS ont été conçus pour aider les applications interagissent avec le matériel informatique. C'est la même chose aujourd'hui, l'importance du système d'exploitation a augmenté au point où le système d'exploitation définit l'ordinateur. Le système d'exploitation dégage une couche d'abstraction entre l'utilisateur et la machine quand ils communiquent. Les utilisateurs ne voient directement au matériel, mais le voir à travers le système d'exploitation. Cette abstraction peut être utilisé pour masquer les détails certains matériels de l'application et de l'utilisateur.

Logiciel utilisé est celui qui n'est pas générique mais spécifiquement pour une machine seule tâche. Le logiciel ne fonctionne pas sur une autre machine. Les demandes de ce genre sont SABRE, le système de réservation des compagnies aériennes et des systèmes de défense. Computer Aided Software Engineering (CASE) Création de logiciels est un processus coûteux et chronophage. Ces programmes visent à soutenir et, dans certains cas, remplacer l'ingénieur dans la création de programmes informatiques. Cad cam systèmes est la conception assistée par ordinateur et fabrication assistée par ordinateur. La planche à dessin électronique dans un programme informatique les fonctionnalités se multiplient. Comme les éléments préfabriqués, calculs de résistance, les émulations de comment une construction tiendra des tremblements de terre.

Sous Linux, il ya eu une question qui a été des allers-retours pendant un certain temps maintenant, est mort SCSI pour les postes de travail? Il ya eu de nombreux progrès en SATA et l'acceptation traditionnelle de l'Ouest Raptor 10K RPM numérique peut-être ce fait SCSI trop cher pour ce qui est nécessaire dans un poste de travail. Il est temps de jeter un oeil à Linux. Comment le Western Digital Raptor WD740GD comparer aux trois derniers disques SCSI Ultra320: le Seagate Cheetah 10K.7, Seagate Cheetah 15K.3, et Seagate Cheetah 15K.4. Cette section porte sur la technologie des disques, l'acoustique, la chaleur, la taille et la performance.

Jetons un coup d'oeil à la dernière génération de la ligne de Seagate Cheetah 10K et 15K ligne Cheetah. Nous allons également prendre un regard en profondeur lors de la dernière SATA 10K de Western Digital de la WD740GD 74GB. En commençant par le Raptor de Western Digital, WD pousse ce disque comme la réponse à faible coût pour SCSI. Sur leur site, ils aiment à montrer les disques 1.200.000 heures de MTBF (Mean Time Between Failure) qui correspond à la MTBF dernière génération de la 15K.3 de Seagate Cheetah et est très proche de la cote de fiabilité des Cheetahs aujourd'hui.

Dans la fiche technique de Linux ou un bulletin, ils mentionnent également que le disque Cheetah est conçu pour «haute performance autour de l'utilisation de l'horloge." Tant le Cheetah et les disques Western Digital Raptor ont la même quantité de mémoire cache. Quand vous parlez des opérations dans un environnement multi-tasking/multi-user, au profit de techniques différentes files d'attente est un avantage. Tous les disques Ultra 320 SCSI support ce qui est appelé Native Command Queuing ou NCQ. Cette technique est l'endroit où toutes les commandes envoyées sur le disque peut être mis en attente et de réorganisations dans l'ordre le plus efficace. Cela empêche le lecteur d'avoir à demander un service sur un seul côté du disque, puis passe de l'autre côté de la portion de disque d'une autre demande, afin de revenir à la prochaine demande .. Bien que certains des disques SATA NCQ faire appui, le Raptor ne fonctionne pas. Le Raptor a une autre forme de file d'attente appelée Tagged Command Queuing ou TCQ. Cette méthode n'est pas aussi efficace que le NCQ et nécessite un soutien à la fois le lecteur et le contrôleur hôte. De ce qu'ils ont été en mesure de déterminer, le soutien TCQ sont rares, même sous Windows.

Le disque SATA s'est appuyée sur leur demande durabilité en indiquant leur utilisation de fluides paliers dynamiques à leurs lecteurs. Les paliers fluides dynamiques remplacer les roulements à billes pour réduire l'usure et à la déchirure disque et de réduire le bruit de fonctionnement.

Microsoft Windows XP technologies rendent facile à jouer à des jeux, de la musique et des films, en plus de la création de films et d'améliorer numérique photo. Direct X 9.0 pousse la technologie multimédia à haute vitesse et divers jeux sur le PC. DirectX fournit les graphiques passionnants, sons, musique, animation et trois dimensions qui apportent vie aux jeux. Direct X est également le lien qui permet aux ingénieurs logiciels pour développer un jeu qui est à grande vitesse et multimédia parcourus pour votre PC. Direct X a été introduit en 1995 et sa popularité a grimpé en développement d'applications multimédia atteint de nouveaux sommets. Aujourd'hui Direct X a progressé à une interface de programmation d'application (API) et appliquée dans les systèmes d'exploitation Microsoft Windows. Les développeurs de logiciels de cette façon peuvent accéder à des fonctionnalités matérielles sans avoir à écrire de code matériel.

Certaines des caractéristiques de la playerb windows media 9 series avec smart jukebox donne aux utilisateurs plus de contrôle sur leur musique. Avec le transfert de cd facile à l'ordinateur, la gravure de CD et compatibilité est disponible sur les lecteurs portables. Les utilisateurs peuvent également découvrir plusieurs services qui ont divertissement haut de gamme. Windows Media Player 9 seriers fonctionne bien avec Windows XP en utilisant la construction en fonctionnalités multimédia numériques et offre une expérience de l'état-of-the-art.
Lorsque Windows Millenium Edition 2000 est sorti de magasins, il a été spécialement conçu pour les utilisateurs à domicile. Il a eu la première version d'un produit Microsoft montage vidéo. Movie Maker est utilisé pour capturer, organiser et éditer des clips vidéo, puis de les exporter pour PC ou lecture sur le Web. Movie Maker 2, sorti en 2003, ajoute de nouvelles transitions, des titres de films décisions jazzy, et de bons effets spéciaux. Basé sur Microsoft Direct Show et technologies Windows Media, Movie Maker a été inclus uniquement avec Windows Millenium Edition. Maintenant Movie Maker 2 est disponible pour Windows XP Édition familiale et Windows XP Professionnel.

Avec la sortie de Windows XP en 2001 provenaient de Windows Messenger, la messagerie instantanée apportant aux utilisateurs à travers l'Internet. Les utilisateurs communiquent en utilisant des messages texte en temps réel dans Windows Messenger. Messagerie en temps réel avec la vidéoconférence est disponible depuis un long moment avant aujourd'hui. Le premier outil de communication fourni par Windows Messenger utilisé intégrée, facile à utiliser le chat texte, voix et vidéo, et la collaboration des données.

Linux est développé et est donc librement redistribuable sous forme de code. Linux est disponible et développé sur Internet. La plupart des ingénieurs qui ont participé à sa production sont des mers plus et je n'ai jamais rencontrer. Ce système d'exploitation est à un code de niveau source et se trouve sur une grande échelle qui a ouvert la voie pour qu'elle devienne un système featureful et stable.

Eric Raymond a écrit un essai populaire sur le développement de Linux intitulé La Cathédrale. et le bazar. Il décrit la façon dont le Kernel Linux utilise une approche Bazar qui a libéré le code rapidement et très souvent, et que cela nécessite une entrée qui a permis d'améliorer le système. Cette approche Bazaar est signalé à l'approche de la cathédrale utilisée par d'autres systèmes comme GNU Emacs base. L'approche cathédrale est caractérisé en apportant un code plus belle qui a été libéré, mais malheureusement, il est libéré beaucoup moins souvent. Une occasion pour les pauvres personnes extérieures au groupe qui ne peuvent pas contribuer au processus.

Certains des hautes lumières et la réussite des projets Bazar ne comprennent pas l'ouverture du code pour tout le monde à observer, au niveau de la conception du Bazar. Sur la même approche de la cathédrale est largement considéré par tout le monde et est appropriée. Une fois le débogage du code est exécuté, il est nécessaire d'ouvrir le bazar que tout le monde trouve différentes erreurs impliquant le code. Si elles ne peuvent corriger le code de cet effort une grande et aider les codeurs.

Avantages et inconvénients des deux systèmes d'exploitation

L'auteur de ce système d'exploitation Linux Chris Browne page Web, décrit la manière dont les efforts de Linux sont distribués et quelques-uns des avantages et des inconvénients du système d'exploitation Linux. Le système d'exploitation Linux est livré avec certaines versions expérimentales telles que la 2.5. série x, où les numéros de version vont progressivement vers le haut chaque semaine. Les changements de version stable que lorsque les bugs sont détectés dans le système et les insectes doit être fixé dans la série expérimentale, et cette apparition ne change pas très souvent. Les utilisateurs de Linux savent que ce qui se passe, et ils travaillent à résoudre les bugs.
Il n'est pas garanti que tous les utilisateurs immédiatement régler leurs problèmes avec les systèmes s'ils ne sont pas touchés (ou ne remarquent pas qu'ils sont touchés) par des problèmes, il existe des correctifs disponibles rapidement, parfois distribués à travers l'Internet après quelques heures de diagnostic. Pour les correctifs de Linux sont disponibles plus rapidement que les fournisseurs commerciaux comme Microsoft, HP, IBM et ce diagnostic est habituellement avant même de savoir qu'il ya un problème. Cette reconnaissance est en contraste avec le comportement des entreprises d'autre part, Bill Gates affirme dans son code de communiqués de presse Microsoft a pas de bugs. Cela semble vouloir dire qu'il n'y a pas de bugs que Microsoft prend soin de fixer.

Microsoft est venu à la conclusion que la majorité des bugs détectés dans leurs systèmes sont présents parce que les utilisateurs n'utilisent pas leur logiciel correctement. Les problèmes qui restent pour Microsoft sont peu nombreux et sont causées par des erreurs réelles. Il reste du travail est d'obtenir la stabilité du système Linux, avec les noyaux Linux configurés qui devrait et ne sont configurés correctement le logiciel sur le dessus de la charge de travail des systèmes doivent fonctionner pendant des centaines de jours sans redémarrer les ordinateurs. Une partie du grand public ainsi que des professionnels informatiques comme les ingénieurs et les techniciens se plaignent que Linux est toujours en évolution. Chris dit que «l'effort et l'intérêt du Kernel Linux s'arrête quand les gens veulent arrêter de construire et d'améliorer la kernal Linux." Tant que les nouvelles technologies et les appareils tels que les cartes vidéo sont en cours de construction et de personnes intéressées par Linux continuer à proposer de nouvelles améliorations pour Linux, le travail sur Linux va progresser.

L'inconvénient du système d'exploitation Linux est qu'il peut se terminer en raison de l'existence d'une meilleure plate-forme pour le piratage kernal, ou parce que Linux dans le futur sera ainsi remplacée qu'il devient ingérable. Ce n'est pas encore arrivé, mais de nombreux chercheurs disent que dans le futur de Linux, avec des plans différents pour atteindre des services au consommateur ou d'une entreprise, Linux s'éloigne de l'espace utilisateur de base kernal et en ce qui crée moins de place pour les données et informations. L'annonce d'un effort de Debian Hurd propose une alternative au problème de piratage kernal. Le kernal Hurd, qui tourne et est envoyé comme un ensemble de processus sur le dessus d'un microkernal tels que MACH, peut fournir un système pour les personnes qui ne sont pas satisfaits des changements apportés au kernal linux. Mach a un "passage de message" abstraction qui permet à l'OS d'être créé comme un ensemble de composants qui fonctionnent en conjonction avec un autre.

Compétitifs, les efforts de collaboration

Pour commencer cette section, je vais parler du début de l'ordinateur personnel et c'est racines avec IBM. Intégrées verticalement propriétaires normes de facto normes architectures étaient la norme pour les trois premières décennies de l'industrie informatique d'après-guerre. Chaque fabricant de l'ordinateur fait la plupart sinon la totalité de sa technologie en interne, et a vendu cette technologie dans le cadre d'un ordinateur intégré. Cette époque était ascendant systèmes d'IBM en 1964 l'introduction de son système de 360 ​​jusqu'à la sortie de la 1981, un ordinateur personnel d'IBM. Cela a été contestée par deux approches différentes. L'un était la fragmentation des normes de propriété dans l'industrie du PC entre les différents fournisseurs, ce qui a conduit Microsoft et Intel pour obtenir la domination à l'échelle industrielle pour leur composant propriétaire de l'architecture globale du système, ce qui rend ce Moschella (1997) appelle la «ère du PC" (1964 - 1981). Le second était un mouvement par les utilisateurs et d'autre part les producteurs niveau de cvonstruct industrywide systèmes «ouverts», dans laquelle la norme a été non détenues par une seule entreprise.

L'adoption du système Linux dans les années 1990 était une réponse à ces approches antérieures. Linux est l'exemple le plus commercialement admise d'une nouvelle vague de «open source», le logiciel et le code source sont distribués gratuitement à utiliser et modifier. Les avantages de Linux contrairement aux normes PC propriétaires, particulièrement les normes logicielles contrôlé par Microsoft. Normes de compatibilité de produits ont généralement été envisagé d'utiliser une typologie simple unidemensional, bifurqué entre «compatible» et «incompatible». De plus, faire ressortir les différences entre les stratégies des normes propriétaires et ouverts, Gabel (1987) attribut de classification multidimensionnel, chaque dimension en supposant que l'un des plusieurs niveaux (discret):

"Multivintage« compatibilité entre les générations successives d'un produit:

"Gamme de produits" compatibilité, l'interopérabilité entre fournissant la largeur de la compagnie

ligne en tant que produit de Microsoft a avec son Windows CE, 95/98/ME, NT/2000 et familles de produits.

"Multivendors« compatibilité, la compatibilité des produits entre ie producteurs concurrents.

Le premier système de succès d'exploitation multi-vendeur était Unix, développée par un groupe de recherche en informatique chez Bell Telephone Laboratories (BTL) à Jersey Nouveau départ en 1969. Comme pour le projet Multics recherches antérieures entre le MIT, BTL et l'unité centrale fabricant d'ordinateurs de General Electric, Unix était un multi-utilisateurs en temps partagé OS conçu comme un projet de recherche par les programmeurs pour leur usage personnel. D'autres caractéristiques clés de la réussite d'Unix reflète dépendances de sentier par ses développeurs et les utilisateurs précoces (Salus 1994):

AT & T a été interdit par décret de consentement de 1956 d'être dans le secteur de l'informatique, de sorte qu'il n'a pas vendu le système d'exploitation dans le commerce. Après la publication de rapports de recherche, les Bell Labs a été inondée de demandes provenant des départements universitaires de sciences informatiques, qui ont reçu des licences d'utilisateur et le code source, mais un manque de soutien. En plus des contraintes budgétaires de came qui limitées chercheurs BTL à mini-ordinateurs décembre opposés à gros ordinateurs, Unix était plus simple et plus efficace que son prédécesseur Multics, basé sur le langage de programmation simplifié C plutôt que les plus largement utilisés PL / I. Bien que développé à l'origine des mini-ordinateurs DEC, Unix a été converti pour fonctionner sur d'autres modèles par les utilisateurs qui ont trouvé le temps du programmeur moins cher que d'acheter un modèle de prise en charge, ouvrant ainsi la voie pour devenir un système d'exploitation indépendant du matériel.

Peut-être l'un des développements les plus importants a été l'octroi de licences UNIX par l'UC Berkeley Computer Science Department, en 1973. Le groupe de Berkeley a publié ses propres sorties de 1977 à 1994, avec une grande partie de son financement fourni par la Défense Projets de recherche avancée Agence (DARPA). Le résultat de la mise au point de Berkeley inclus (Garud et Kumaraswamy 1993; Salus 1994):

La première version Unix en charge TCP / IP, plus tard, les protocoles standards de l'Internet;

Adoption académique de BSD Unix comme système d'exploitation préféré par de nombreux départements informatiques à travers le monde;

Propagation de commerce de dérivé de BSD Unix auprès de Sun Microsystems, a co-fondé par l'ancien projet de loi Joy programmeur BSD;

Comme ils ont fait évoluer leurs versions d'Unix, la fragmentation des développeurs Unix et des adoptants en rival "BSD" et "AT & T" camps.

AT & T Unix fourni un standard multi-fournisseurs qui, couplé avec les progrès BSD, a contribué à stimuler l'adoption de l'informatique en réseau. Aidé par Sun, dont le slogan est "le réseau est l'ordinateur», Unix rapidement gagné l'acceptation dans les années 1980 que le système d'exploitation le plus pratique pour postes de travail d'ingénierie en réseau (Garud et Kumaraswamy 1993). Dans le même temps, il est devenu un standard multi-fournisseurs vrai que les producteurs de mini-ordinateurs avec une petite quantité de clients, la faiblesse des systèmes d'exploitation R & D et immature licence Unix d'AT & T. Les principales exceptions à la poussée Unix ont été les premiers dirigeants des postes de travail (Apollo) et mini-ordinateurs (DEC), qui ont utilisé leur système d'exploitation propriétaire comme une source d'avantage concurrentiel, et furent les derniers à passer à Unix dans leurs segments respectifs.

Certains des partisans des deux producteurs ont formé un certain nombre d'associations commerciales pour promouvoir les systèmes d'exploitation Unix et assimilés. Ce faisant alimenté l'adoption et la normalisation des systèmes Unix, ils espéraient augmenter la quantité de logiciels d'application pour rivaliser avec parrainés, architectures propriétaires (Gabel, 1987; Grindley 1995). Ces deux groupes de promotion de ces sous la rubrique «systèmes ouverts», les éditeurs d'un livre sur la série de tels systèmes ont résumé leurs objectifs comme suit:
Les systèmes ouverts permettent aux utilisateurs de déplacer leurs applications entre les systèmes facilement, les décisions d'achat peuvent être faites sur la base du rapport coût-performance et le soutien des fournisseurs, plutôt que sur les systèmes qui exécutent une suite d'applications utilisateurs (Salus 1994: v).

En dépit de ces objectifs, la communauté Unix a passé les années 1980 et 1990 morcelée en factions AT & T et Berkeley en guerre, chacun cherche le contrôle de l'API systèmes d'exploitation pour maximiser les logiciels disponibles pour leurs versions. Chaque faction a ses propres adhérents. Pour éviter de payer de vieilles coûts centraux de commutation précédentes, US Department of Defense décisions d'achat a commencé à favoriser Unix sur des systèmes propriétaires. Comme AT & T a officialisé sa définition d'interface System V et encouragé les fabricants de matériel à adopter System V, il est devenu la norme exigée par multifournisseur marchés du DoD

BSD groupe a été développé uniquement pour mini-ordinateurs DEC, sa variante Unix n'était pas multifournisseurs et moins attrayant et séduisant pour les marchés du DoD. Les nombreuses innovations du groupe BSD en termes de convivialité, des outils de développement de logiciels et de réseaux rend plus attrayant pour les informaticiens universitaires pour leur propre recherche et l'enseignement, ce qui en fait le mini-ordinateur OS préféré par les départements de sciences informatiques aux Etats-Unis, en Europe et au Japon ( Salus 1994). L'innovation divergent signifie que les deux principales variantes d'Unix différaient en termes de structure interne, les commandes des utilisateurs et des interfaces de programmation d'applications (API). C'était la dernière différence que les plus gravement touchés acheteurs d'ordinateur, des logiciels développés sur mesure pour un type d'Unix peut pas directement être recompilé sur l'autre, en ajoutant les coûts de changement entre les deux systèmes. En outre, à la fois la mise en réseau fonctionnant avec le modem et la DARPA a facilité la distribution des dons utilisateurs des bibliothèques de code source, qui étaient gratuits mais souvent nécessaires spécifiques au site une programmation personnalisée si l'API Unix sur le site des utilisateurs différents de ceux rencontrés par de l'donateur original.

Microsoft Windows continue d'investir dans des produits basés sur la famille de processeurs Itanium et Itanium Solutions Alliance favorisera l'investissement en aidant la croissance de l'écosystème d'applications et de solutions disponibles sur la plateforme Windows et SQL Server 2005 ", a déclaré Bob Kelly, directeur général, infrastructure Windows, Microsoft Corp "Nous sommes impatients de travailler avec les membres de l'Alliance Itanium Solutions pour aider les responsables informatiques transition de serveurs Unix RISC aux systèmes Itanium en cours d'exécution sur la plate-forme Windows."...

Aucun commentaire:

Enregistrer un commentaire