Wizerunek babci w twórczości rosyjskich pisarzy. Praca twórcza rola babci w wychowaniu osobowości

Kiedy pojawiły się pierwsze komputery? Odpowiedź na to pytanie nie jest łatwa, ponieważ nie ma jednej poprawnej klasyfikacji komputerów elektronicznych, a także sformułowań tego, co można im przypisać, a czego nie.

Pierwsza wzmianka

Samo słowo „komputer” zostało po raz pierwszy udokumentowane w 1613 roku i oznaczało osobę wykonującą obliczenia. Ale w XIX wieku ludzie zdali sobie sprawę, że maszyna nigdy nie męczy się pracą, a może wykonać pracę znacznie szybciej i dokładniej.

Aby rozpocząć odliczanie ery komputerów, najczęściej bierzemy 1822. Pierwszy komputer został wynaleziony przez angielskiego matematyka Charlesa Babbage'a. Opracował koncepcję i przystąpił do produkcji mechanizmu różnicowego, który uważany jest za pierwsze automatyczne urządzenie obliczeniowe. Potrafiła policzyć wiele zestawów liczb i wydrukować wyniki. Niestety, z powodu problemów z finansowaniem Babbage nigdy nie był w stanie ukończyć swojej pełnej wersji.

Ale matematyk nie poddał się iw 1837 roku wprowadził pierwszy komputer mechaniczny, zwany silnikiem analitycznym. Był to pierwszy komputer ogólnego przeznaczenia. W tym samym czasie rozpoczął współpracę z Ada Lovelace. Tłumaczyła i uzupełniała jego prace, a także tworzyła pierwsze programy do jego wynalazku.

Silnik analityczny składał się z następujących części: jednostki arytmetyczno-logicznej, zintegrowanej jednostki pamięci oraz urządzenia do sterowania ruchem danych. Ze względu na trudności finansowe nie została ona również ukończona za życia naukowca. Ale schematy i projekty Babbage'a pomogły innym naukowcom, którzy zbudowali pierwsze komputery.

Prawie 100 lat później

Co dziwne, przez całe stulecie komputery prawie się nie rozwijały. W latach 1936-1938 niemiecki naukowiec Konrad Zuse stworzył Z1, pierwszy elektromechaniczny programowalny komputer binarny. Następnie, w 1936 roku, Alan Turing zbudował maszynę Turinga.

Stał się podstawą dalszych teorii na temat komputerów. Maszyna emulowała działania osoby wykonującej listę logicznych instrukcji i wydrukowała wynik pracy na taśmie papierowej. Maszyny Zuse i Turing to pierwsze komputery we współczesnym znaczeniu, bez których komputery, do których jesteśmy przyzwyczajeni dzisiaj, nie powstałyby.

Wszystko na front

druga Wojna światowa wpłynął na rozwój komputerów. W grudniu 1943 roku Tommy Flowers wprowadził tajną maszynę o nazwie Collos, która pomogła brytyjskim agentom złamać szyfry niemieckich wiadomości. Był to pierwszy w pełni elektryczny programowalny komputer. O jego istnieniu opinia publiczna dowiedziała się dopiero w latach 70-tych. Od tego czasu komputery przyciągają uwagę nie tylko naukowców, ale także ministerstw obrony, które aktywnie wspierały i finansowały ich rozwój.

Co do tego, który komputer cyfrowy należy wziąć pod uwagę jako pierwszy, istnieją spory. W latach 1937-1942 profesor Uniwersytetu Iowa John Vincent Atanasoff i Cliff Berry (student) opracowali swój komputer ABC. A w latach 1943-1946 J. Presper Eckert i D. Mauchly, naukowcy z University of Pennsylvania, zbudowali najpotężniejszy ENIAC ważący 50 ton. W ten sposób Atanasoff i Berry zbudowali swoją maszynę już wcześniej, ale ponieważ nigdy nie była ona w pełni funkcjonalna, często ENIACowi przypisuje się tytuł „pierwszego komputera”.

Pierwsze próbki komercyjne

Przy ogromnych gabarytach i złożoności konstrukcji komputery były dostępne tylko dla wydziałów wojskowych i dużych uczelni, które same je montowały. Ale już w 1942 roku K. Zuse rozpoczął pracę nad czwartą wersją swojego pomysłu - Z4, a w lipcu 1950 sprzedał ją szwedzkiemu matematykowi Eduardowi Stiefelowi.

A pierwszymi komputerami, które zaczęły być produkowane masowo, były modele o lakonicznej nazwie 701, wyprodukowane przez IBM. 7 kwietnia 1953. W sumie sprzedano 19 701 sztuk. Oczywiście nadal były to maszyny przeznaczone tylko dla dużych instytucji. Aby stać się naprawdę masywnymi, potrzebowali kilku ważniejszych ulepszeń.

Tak więc 8 marca 1955 r. Whirlwind, komputer, który został pierwotnie pomyślany podczas II wojny światowej jako symulator dla pilotów, został uruchomiony 8 marca, ale do czasu jego powstania przyszedł z pomocą na początku Zimna wojna. Następnie stał się podstawą do opracowania SAGE - podsystemu obrony przeciwlotniczej przeznaczonego do automatycznego namierzania samolotów przechwytujących. Kluczowymi cechami Whirlwinda była obecność 512 bajtów pamięci RAM i wyświetlanie informacji graficznych na ekranie w czasie rzeczywistym.

Technologia dla mas

Komputer TX-O, wprowadzony w 1956 roku w MIT, był pierwszym, w którym zastosowano tranzystory. To znacznie zmniejszyło koszt i wymiary sprzętu.

Następnie zespół naukowców, którzy opracowali TX-O, opuścił instytut, założył Digital Equipment Corporation, a w 1960 roku wprowadził komputer PDP-1, który zapoczątkował erę minikomputerów. Ich wielkość nie przekraczała jednego pokoju, a nawet szafy i były przeznaczone dla szerszego grona klientów.

Cóż, pierwsze komputery stacjonarne zaczęły być produkowane przez firmę Hewlett Packard w 1968 roku.

Komputery towarzyszą człowiekowi od dziesięcioleci. Są one obecnie w swojej czwartej generacji, chociaż niektórzy twierdzą, że to już piąta generacja, ponieważ systemy przeszły na architekturę procesorów wielordzeniowych, ale ten wyrok jest nadal kwestionowany i w tym artykule będziemy trzymać się 4. x pokolenia.

Przodkiem współczesnego komputera osobistego jest maszyna arytmetyczna Blaise'a Pascala, za pomocą której już w 1642 roku wykonywał najprostsze operacje, takie jak dodawanie i odejmowanie. Nazywa się "kołem Pascala" lub "Pascaline" i należy do naukowców do zerowej generacji komputerów. Pod koniec XVII wieku inny naukowiec, Gottfried Wilhelm Leibniz, stworzył własną maszynę liczącą, która może wykonywać już 4 operacje: mnożenie i dzielenie, odejmowanie i dodawanie.

Zerowa generacja komputerów zakończyła się w XIX wieku. Jednym z najnowszych przykładów tej techniki było urządzenie wynalezione przez Charlesa Babbage'a, które wykonywało obliczenia, kierując się zestawem instrukcji zawartych na kartach dziurkowanych. Takie pierwsze prototypy programów na kartach perforowanych przygotowali pierwsi programiści, wśród których były kobiety. Pionierką tego zawodu wśród płci pięknej była Ada Lovelace.

W późny XIX wieku w Ameryce pojawia się pierwsza maszyna licząca, w której używa się czegoś podobnego do klawiatury. Wynalazcami tego urządzenia, zwanego Komptometrem, byli Amerykanie Tarrant and Felt.

Mniej więcej w tym samym czasie Herman Hollerith stworzył „tabulator statystyczny”, aby przyspieszyć proces przetwarzania wyników amerykańskiego spisu ludności. W tej maszynie do odszyfrowania danych wydrukowanych na kartach dziurkowanych wykorzystano energię elektryczną. Urządzenie znalazło szerokie zastosowanie, a jego twórca rozwinął w oparciu o tabulator firmę, która po 36 latach przekształciła się w znaną korporację IBM, światowego lidera branży komputerowej. W połowie XX wieku osiągnięcia technologiczne IBM były wykorzystywane przez większość rozwiniętych krajów świata.

Od lat 30. XX wieku pojawiły się na rynku komputerowe kalkulatory biurkowe firmy Friden, Monroe i Marchant, umożliwiające użytkownikom wykonywanie 4 podstawowych operacji arytmetycznych. W tym okresie pojawia się termin „komputer” (przetłumaczony z angielskiego „komputer”). Tzw. stanowisko osób wykonujących obliczenia za pomocą kalkulatorów.

Pierwsza automatyczna maszyna mechaniczna sterowana programami została stworzona przez niemieckiego inżyniera Konrada Zuse w 1938 roku.

Druga generacja komputerów pojawiła się w połowie XX wieku i różniła się od pierwszej zastosowaniem technologii lampowych, co pozwoliło znacznie zwiększyć ich prędkość do 20 000 operacji na sekundę. Pierwszy w historii elektroniczny komputer cyfrowy pojawił się w Stanach Zjednoczonych w 1945 roku. Została stworzona przez dwóch Johnów: Johna Williama Mauchly i Johna Prespera Eckerta. Znajomi nazwali swoje dzieło „ENIAC” (Electronic Numerical Integrator and Calculator).

Minęło zaledwie kilka dekad, a branża komputerowa ponownie zrobiła krok do przodu. Stało się to po wynalezieniu i rozwoju produkcji tranzystorów. Ich zastosowanie umożliwiło producentom komputerów zmniejszenie masy i wymiarów swoich produktów, a także zwiększenie ich prędkości, która zaczęła sięgać 1 miliona operacji na sekundę.

W latach pięćdziesiątych IBM rozpoczął produkcję pierwszych dysków magnetycznych przeznaczonych do przechowywania informacji w formacie cyfrowym, które nazwano RAMAC (metoda zliczania i kontroli losowego dostępu).

W 1963 opracowano algorytmiczny język programowania BASIC. Następnie na jego podstawie powstała cała rodzina języków wysokiego poziomu.

Trzecia generacja komputerów produkowana była w latach 1965-1980 i wyróżniała się zastosowaniem obwodów elektronicznych zbudowanych na bazie kryształów krzemu.

Studenci Polon Allen i Bill Gates w 1975 roku opracowali tłumacz języka BASIC używany na komputerze osobistym Altair. W przyszłości stworzyli również firmę Microsoft, która dziś jest wiodącym producentem na rynku oprogramowania.

Takie elementy składowe komputera jak „mysz”, dyskietki, płyty CD pojawiły się w latach 80. ubiegłego wieku.

Nowy impuls w historii rozwoju komputerów osobistych nadało stworzenie graficznego systemu operacyjnego Windows 95, obsługującego wielozadaniowość i ujednoliconego z wieloma urządzeniami o tej samej architekturze. Ponadto ten system jako pierwszy wykorzystał grafikę. W systemie Windows 95 firma Microsoft była pionierem nowego protokołu Plug & Play, który umożliwiał automatyczne instalowanie urządzeń w systemie.

Czwarta generacja komputerów pojawiła się pod koniec lat 80. i jest produkowana do dziś. W związku z tym, że rozwój technologii obniżył koszty produkcji komputerów osobistych, stały się one dostępne szeroki zasięg użytkowników i są szeroko stosowane na świecie.

Jeszcze w pierwszej połowie XIX wieku. Angielski matematyk Charles Babbage próbował zbudować uniwersalne urządzenie obliczeniowe, czyli komputer (Babbage nazwał go Silnikiem Analitycznym). To Babbage jako pierwszy wpadł na pomysł, że komputer powinien zawierać pamięć i być kontrolowany przez program. Babbage chciał zbudować swój komputer jako urządzenie mechaniczne i zamierzał ustawiać programy za pomocą kart perforowanych - kart z gruby papier z informacjami naniesionymi za pomocą otworów.

Babbage nie mógł jednak wykonać tej pracy - okazało się to zbyt skomplikowane dla ówczesnej technologii.

Niemiecki inżynier Konrad Zuse zbudował w 1941 roku mały komputer oparty na kilku przekaźnikach elektromechanicznych. Ale z powodu wojny praca Zuse nie została opublikowana.

A w USA w 1943 roku, w jednym z przedsiębiorstw IBM, Amerykanin Howard Aiken stworzył mocniejszy komputer o nazwie Mark-1. Umożliwiał już wykonywanie obliczeń setki razy szybciej niż ręcznie i był faktycznie używany do obliczeń wojskowych.

Począwszy od 1943 roku w USA, grupa specjalistów pod kierownictwem Johna Mauchly'ego i Prespera Eckerta zaczęła projektować komputer ENIAC oparty na lampach próżniowych. Stworzony przez nich komputer działał tysiąc razy szybciej niż Mark 1. Aby uprościć i przyspieszyć proces ustawiania programów, Eckert i Mauchly zaczęli projektować nowy komputer, który mógłby przechowywać program w swojej pamięci.

W 1945 roku w prace zaangażowany był słynny matematyk John von Neumann, który przygotował raport na temat tego komputera. Raport został wysłany do wielu naukowców i stał się powszechnie znany, ponieważ von Neumann w nim jasno i prosto sformułował ogólne zasady funkcjonowanie komputerów, tj. uniwersalne urządzenia komputerowe. I do tej pory zdecydowana większość komputerów jest wykonywana zgodnie z zasadami, które John von Neumann nakreślił w swoim raporcie z 1945 roku. Pierwszy komputer, w którym wcielono zasady von Neumanna, został zbudowany w 1949 roku przez angielskiego badacza Maurice'a Wilkesa.

W latach 40. i 50. komputery budowano przy użyciu lamp próżniowych. Dlatego komputery były bardzo duże (zajmowały ogromne hale), drogie i zawodne – w końcu lampy próżniowe, podobnie jak zwykłe żarówki, często się przepalają.

Ale w 1948 wynaleziono tranzystory - miniaturowe i niedrogie urządzenia elektroniczne, które mogłyby zastąpić lampy próżniowe. Doprowadziło to do kilkusetkrotnego zmniejszenia rozmiarów komputerów i zwiększenia ich niezawodności.

Pierwsze komputery oparte na tranzystorach pojawiły się pod koniec lat 50-tych i w połowie lat 60-tych. Po pojawieniu się tranzystorów najbardziej czasochłonną operacją w produkcji komputerów było łączenie i lutowanie tranzystorów w celu stworzenia obwodów elektronicznych. Ale w 1959 r. Robert Noyce (przyszły założyciel Intela) wynalazł metodę, która pozwala tworzyć tranzystory i wszystkie niezbędne połączenia między nimi na jednej płytce krzemowej. Powstałe obwody elektroniczne stały się znane jako układy scalone lub chipy.

W 1968 roku Burroughs wyprodukował pierwszy komputer z układem scalonym, aw 1970 roku Intel zaczął sprzedawać układy scalone pamięci. W przyszłości liczba tranzystorów, które można by umieścić na jednostkę powierzchni układ scalony podwajał się mniej więcej każdego roku, co sprawia, że ​​koszt komputerów jest niższy i przyspieszony.

Na początku 1975 roku pojawił się pierwszy komercyjnie dystrybuowany komputer osobisty, Altair-8800, oparty na mikroprocesorze Intel-8080. I choć jego możliwości były bardzo ograniczone (pamięć RAM miała tylko 256 bajtów, nie było klawiatury i ekranu), jej wygląd spotkał się z dużym entuzjazmem: w pierwszych miesiącach sprzedano kilka tysięcy kompletów maszyny.

Pod koniec 1975 roku Paul Allen i Bill Gates (przyszli założyciele Microsoftu) stworzyli interpreter dla komputera Altair. Podstawowy język, który pozwalał użytkownikom po prostu komunikować się z komputerem i łatwo pisać dla niego programy. Przyczyniło się to również do popularności komputerów osobistych. Komputery osobiste zaczęto sprzedawać już w kompletnym zestawie, z klawiaturą i monitorem, popyt na nie wynosił dziesiątki, a potem setki tysięcy sztuk rocznie.

W 1976 roku nowy Firma Apple Komputer wszedł na rynek z komputerem Apple I za 666 dolarów. Jego płyta główna była przykręcona do kawałka sklejki i w ogóle nie było obudowy ani zasilacza.

Ale komputer Apple II, który pojawił się w 1977 roku, stał się prototypem większości kolejnych modeli, w tym IBM PC.

Pod koniec lat 70. rozpowszechnienie komputerów osobistych doprowadziło nawet do pewnego spadku popytu na duże komputery i minikomputery (minikomputery). Stało się to przedmiotem poważnej troski IBM (International Business Machines Corporation), wiodącej firmy produkującej duże komputery, iw 1979 roku IBM postanowił spróbować swoich sił na rynku komputerów osobistych.

Przede wszystkim na główny mikroprocesor komputera wybrano najnowszy wówczas 16-bitowy mikroprocesor Intel-8088. Jego zastosowanie pozwoliło znacznie zwiększyć potencjalne możliwości komputera, ponieważ nowy mikroprocesor umożliwił pracę z 1 MB pamięci, a wszystkie dostępne w tym czasie komputery były ograniczone do 64 KB.

Użytkownicy mają możliwość samodzielnej modernizacji swoich komputerów i wyposażenia ich w dodatkowe urządzenia setek różnych producentów.

Wszystko to doprowadziło do obniżenia kosztów komputerów kompatybilnych z IBM PC i szybkiej poprawy ich właściwości, co oznacza wzrost ich popularności.

IBM nie uczynił swojego komputera jednoczęściowym urządzeniem i nie chronił swojego projektu patentami. Wręcz przeciwnie, składała komputer z niezależnie wyprodukowanych części i nie trzymała w tajemnicy specyfikacji tych części i sposobu ich połączenia. Wręcz przeciwnie, zasady projektowania IBM PC były dostępne dla każdego. Takie podejście, zwane zasadą otwartej architektury, sprawiło, że IBM PC odniósł ogromny sukces, chociaż odebrało IBM jedyną korzyść z tego sukcesu.


Potrzeba liczenia pojawiła się w ludziach wraz z nadejściem cywilizacji. Musieli przeprowadzać transakcje handlowe, wykonywać pomiary gruntów, zarządzać zapasami upraw, monitorować cykle astronomiczne. W tym celu wynaleziono różne narzędzia od czasów starożytnych, od patyczków liczących i liczydła, które w toku rozwoju nauki i technologii przekształciły się w kalkulatory i różne urządzenia komputerowe, w tym komputery osobiste.



Czy możesz sobie wyobrazić? nowoczesny świat bez komputerów? Ja - nie, bo każdy nasz krok związany jest z komputerami. Ta historia zaczęła się w odległych latach 40., kiedy świat dopiero zaczął dowiadywać się o stworzeniu pierwszych „komputerów” (komputerów elektronicznych).

Historia powstania pierwszego na świecie komputera

W 1942 roku projekt Johna Mauchleya dał impuls do stworzenia pierwszego komputera, choć sam projekt został początkowo zignorowany. Kiedyś zainteresowało się nim jedno z laboratoriów armii amerykańskiej, a już w 1943 roku podjęto pierwsze kroki w celu stworzenia maszyny o nazwie „ENIAC”. Pieniądze na stworzenie dał Pentagon (który potrzebował na stworzenie nowych broni), a zajęło im to nieco mniej niż 500 000 dolarów.

Nawiasem mówiąc, jeśli chodzi o elektryczność, ENIAC okazał się bardzo żarłoczny, gdy został włączony - światła pobliskiego miasta przygasały za każdym razem. ENIAC (Electronic Numerical Integrator and Calculator) jest naprawdę pierwszym komputerem, który można zaprogramować.

Dane techniczne pierwszego komputera:

  1. Waga osiągnęła 27 ton;
  2. Moc - 174 kW - tyle zużywa ogromne centrum handlowe w dzień wolny;
  3. Zawierała 18 000 lamp próżniowych, ponieważ nie było w tym czasie tranzystorów i procesorów;
  4. Pamięć - 4 kilobajty;
  5. Miał imponujące rozmiary - zajmował 135 mkw.
  6. Wykonywane do 5000 akcji na sekundę.

Najbardziej niesamowite są kilometry przewodów, którymi owinięto komputer. Został zaprogramowany jako komunikator telefoniczny obsługiwany przez operatorów telefonicznych.

Później zaczęto go wykorzystywać nie tylko do analizy promieniowania kosmicznego, ale także do tworzenia bomby wodorowej. W czasie tworzenia komputera wojna się skończyła, ale badania nie ustały, a w 1945 roku przeprowadzono pierwszy oficjalny test, który zdał. W tym samym czasie przetworzono około 1 000 000 kart perforowanych IBM. Mimo ogromnych rozmiarów i wagi komputer działał przez około 10 lat.

Po 5 latach wynaleziono tranzystor, co zapoczątkowało zmniejszanie się rozmiarów komputerów.

Gdzie i kiedy sprzedano pierwszy komputer osobisty?

W ciągu następnych dwóch dekad koncepcja komputera osobistego niewiele się zmieniła. Wprowadzenie mikroprocesora przyspieszyło proces budowy komputera. W 1974 roku IBM próbował stworzyć swój pierwszy komputer, ale próba się nie powiodła, a sprzedaż była bardzo niska. IBM5100 - miał kasety jako nośniki danych, dość małą wagę i poważny koszt 10 000 USD.

Potrafił też samodzielnie wykonywać programy napisane w językach programowania takich jak BASIC i APL (powstał w IBM). wyświetlało 16 wierszy po 64 znaki każdy, pamięć około 64 Kb, a te kasety wyglądały jak kasety stereo audio. Ale sprzedaż nie poszła, ponieważ nie było normalnego interfejsu, a cena była zbyt wysoka.

Czy zastanawiałeś się kiedyś, jak będą wyglądać komputery za 10 lat?

Niedawno IBM zaprezentował swój nowy mega-komputer „Roadrunner”. Jego pojemność wynosi 1 000 000 000 000 (1 biliard) operacji. Został stworzony dla Departamentu Energii USA i składa się z 6480 procesorów 2-rdzeniowych oraz 12960 procesorów firmy IBM, które noszą nazwę. Obejmuje 278 ogromnych szaf, 88 kilometrów kabli, waga 226 ton, zajmuje powierzchnię 1100 m², pobór mocy 3,9 MW, a koszt 133 000 000 dolarów.