poniedziałek, 13 października 2014

Bezpieczeństwo sieci.

Wirus komputerowyprogram komputerowy, posiadający zdolność replikacji, tak jak prawdziwy wirus, stąd jego nazwa. Wirus do swojego działania potrzebuje i wykorzystuje system operacyjny, aplikacje oraz zachowanie użytkownika komputera.
Wirusa komputerowego zalicza się do złośliwego oprogramowania.


  • DDoS
  • koń trojański (informatyka)
  • makrowirusy
  • programy szpiegujące
  • rootkit
  • sniffer
  • wirus albański
  • wirus polimorficzny
  • wirusy towarzyszące
  • XP Antivirus


    Przenoszenie się i działanie wirusa komputerowego

    Wirus komputerowy przenosi się poprzez pliki, co wymaga obecności systemu plików, lub przez bezpośredni zapis w wybranym sektorze bądź jednostce alokacji zewnętrznego nośnika danych np. dysku twardego, dyskietki lub pendrive'a. Proces replikacji wirusa komputerowego polega na odpowiedniej modyfikacji zawartości pliku, sektora lub jednostki alokacji. Tak zmodyfikowany nośnik danych nazywa się nosicielem wirusa komputerowego, analogicznie do prawdziwego nosiciela wirusa.
    Rozmiary pierwszych wirusów komputerowych zawierały się w granicach od kilkudziesięciu bajtów do kilku kilobajtów. Obecnie, takie klasyczne wirusy spotyka się rzadziej, częściej jest to połączenie wirusa z robakiem komputerowym o rozmiarze rzędu kilkadziesiąt kilobajtów. Taką, stosunkowo niewielką ilość kodu binarnego, z łatwością można ukryć w dużym pliku zawierającym program komputerowy, o rozmiarze rzędu kilku megabajtów. Sam rozmiar wirusa zależy od czynników takich jak:
  • umiejętności programistyczne twórcy wirusa – wirus lepszego programisty napisany w tym samym języku będzie mniejszy lub będzie miał więcej funkcji;
  • użyty język programowania – wirus o podobnej funkcjonalności napisany w języku maszynowym (asembler) zwykle będzie mniejszy niż w języku skryptowym czy języku wysokiego poziomu;
  • przewidywana funkcjonalność wirusa – prosty wirus będzie mniejszy od szkodnika wykonującego wiele różnych czynności; najmniejsze wirusy potrafią tylko się powielać;
  • wykorzystanie cech środowiska operacyjnego – wirus napisany jako maksymalnie niezależny musi mieć wbudowane wszystkie potrzebne biblioteki, wirus korzystający w pełni ze środowiska ma tylko minimum kodu niezbędne do wywołania dostępnych w tym środowisku funkcji.
Od programisty zależą także efekty, jakie wirus będzie wywoływał po zainfekowaniu systemu, na przykład:
  • nieupoważnione kasowanie danych
  • rozsyłanie spamu poprzez pocztę elektroniczną
  • dokonywanie ataków na inne hosty w sieci, w tym serwery
  • kradzież danych: hasła, numery kart płatniczych, dane osobowe
  • zatrzymanie pracy komputera, w tym całkowite wyłączenie
  • wyświetlanie grafiki i/lub odgrywanie dźwięków
  • utrudnienie lub uniemożliwienie pracy użytkownikowi komputera
  • przejęcie przez osobę nieupoważnioną kontroli nad komputerem poprzez sieć
  • tworzenie grupy hostów zarażonych danym wirusem, tzw. botnet
  • Profilaktyka antywirusowa

    Najlepszą metodą ustrzeżenia się przed wirusami jest ochrona prewencyjna, która opiera się na domyślnym odrzucaniu wszystkich plików, które docierają do naszego komputera. Niekiedy nawet pliki od zaufanych osób mogą zawierać wirusy, a osoby te mogą o tym po prostu nie wiedzieć. Ważnym elementem działań zapobiegawczych jest regularne tworzenie kopii awaryjnych dla najważniejszych plików, programów bądź dokumentów. Trzeba również regularnie tworzyć kopie zapasowe danych. W przypadku zainfekowania komputera nie należy od razu w panice formatować dysku twardego. Co więcej, wykonanie formatowania dysku wcale nie oznacza pozbycia się niektórych wirusów z systemu.
    Program antywirusowy (antywirus) – program komputerowy, którego celem jest wykrywanie, zwalczanie i usuwanie wirusów komputerowych. Współcześnie najczęściej jest to pakiet programów chroniących komputer przed różnego typu zagrożeniami.
    Programy antywirusowe często są wyposażone w dwa niezależnie pracujące moduły (uwaga: różni producenci stosują różne nazewnictwo):
  • skaner – bada pliki na żądanie lub co jakiś czas; służy do przeszukiwania zawartości dysku
  • monitor – bada pliki ciągle w sposób automatyczny; służy do kontroli bieżących operacji komputera
Program antywirusowy powinien również mieć możliwość aktualizacji definicji nowo odkrytych wirusów, najlepiej na bieżąco, przez pobranie ich z Internetu, ponieważ dla niektórych systemów operacyjnych codziennie pojawia się około trzydziestu nowych wirusów.

środa, 8 października 2014

Podstawowe protokoły sieciowe

Protokół jest to zbiór procedur oraz reguł rządzących komunikacją, między co najmniej dwoma urządzeniami sieciowymi. Istnieją różne protokoły, lecz nawiązujące w danym momencie połączenie urządzenia muszą używać tego samego protokołu, aby wymiana danych pomiędzy nimi była możliwa.
W celu komunikacji między różnymi protokołami wykorzystuje łącza (ang. gateway) - czyli urządzenia, które tłumaczącą rozkazy jednego protokołu na drugi. Należy pamiętać, że używanie łącz może spowolnić w znacznym stopniu komunikację pomiędzy systemami. Kolejnym rozwiązaniem może być skonfigurowanie komputerów w taki sposób, by wykorzystywały kilka protokołów równocześnie, jednak i to rozwiązanie może prowadzić do dodatkowego obciążania siec

HTTP
HTTPS
FTP
SFTP
POP3, SMTH, IMAP,
DNS
TELNET, SSH

HTTP (ang. HyperText Transfer Protocol) - to protokół internetowy, używany do obsługi stron WWW. HTTP stanowi podstawowy protokół, przy pomocy którego przebiega komunikacja między klientami i serwerami sieci Web. Jest to protokół poziomu aplikacji dla współpracujących ze sobą, hipermedialnych, rozproszonych systemów informacyjnych. HTTP jest bezstanowym i generycznym protokołem zorientowanym obiektowo. Cechą charakterystyczną tego protokołu możliwość wpisywania oraz negocjowania reprezentacji danych, co umożliwia budowę systemów niezależnie od typu transferowanych danych.
HTTPS (ang. Hypertext Transfer Protocol Secure) – szyfrowana wersja protokołu HTTP. W przeciwieństwie do komunikacji niezaszyfrowanego tekstu w HTTP klient-serwer, szyfruje go za pomocą protokołu SSL. Zapobiega to przechwytywaniu i zmienianiu przesyłanych danych.
HTTPS działa domyślnie na porcie nr 443 w protokole TCP. Wywołania tego protokołu zaczynają się od https://, natomiast zwykłego połączenia HTTP od http://. Protokół HTTPS jest warstwę wyżej (na transporcie SSL), najpierw następuje więc wymiana kluczy SSL, a dopiero później żądanie HTTP. Powoduje to, że jeden adres IP może serwować tylko jedną domenę lub też tylko subdomeny danej domeny (zależnie od przyznanego certyfikatu).

FTP (ang. File Transfer Protocol) - to protokół służący do transmisji plików. Przeważnie usługę ftp stosuje do przesyłania danych z odległej maszyny do lokalnej lub na odwrót. Protokół ten działa w oparciu o zasadę klient-serwer i korzystanie z usługi polega na użyciu interaktywnej aplikacji. Technologia FTP zapewnia ochronę stosując hasła dostępu.
DNS (ang. Domain Name Service) - protokół używany w sieci Internet obsługujący system nazywania domen. Umożliwia on nadawanie nazw komputerom, które są zrozumiałe i łatwe do zapamiętania dla człowieka, tłumacząc je na adresy IP. Nazywany czasem usługą BIND (BSD UNIX), DNS oferuje hierarchiczną, statyczną usługę rozróżniania nazw hostów. Administratorzy sieci konfigurują DNS używając listę nazw hostów oraz adresów IP. DNS nie posiada centralnego repozytorium przechowującego adresy IP maszyn w sieci. Dane dotyczące tych adresów dzielone są między wiele komputerów, zwanych serwerami DNS (nazw domenowych), które są zorganizowane hierarchicznie w formie drzewa. Początek drzewa nazywany jest korzeniem. Nazwy najwyższego poziomu składają się z dwuliterowych domen narodowych opartych na zaleceniach ISO 3166 (wyjątek stanowi brytyjska domen uk). Nadrzędna domena narodowa w Polsce oznaczona jest przez pl. Jeżeli chodzi o domeny trzyliterowe, ich znaczenie jest następujące:

  • com - organizacje komercyjne
  • gov - agencje rządowe
  • edu - instytucje edukacyjne
  • mil - organizacje wojskowe
  • org - pozostałe organizacje.
  • net - organizacje, których działalność dotyczy sieci komputerowych

    DHCP (
    ang. Dynamic Host Configuration Protocol) - to standardowy protokół przydzielający adresy IP poszczególnym komputerom. Serwer DHCP przypisuje adresy IP poszczególnym końcówkom.


    Telnet

    Zadaniem protokołu Telnet jest zapewnienie komunikacji wielozadaniowej, dwukierunkowej, ośmiobitowej i zorientowanej bajtowo. Umożliwia połączenie ze sobą urządzenia terminalowego i procesu pozwalającego na jego obsługę.
    Telnet nie tylko pozwala użytkownikowi na zalogowanie się na zdalnym komputerze (uzyskanie dostępu poprzez podanie nazwy użytkownika i hasła), ale także na wywoływanie na nim poleceń. Tak więc użytkownik w Łodzi może połączyć się z hostem w Nowym Jorku i uruchamiać na nim programy tak, jakby faktycznie znajdował się przed tamtym komputerem.
    Telnet uruchamiany jest odpowiednim poleceniem, po którym następuje nazwa (albo adres numeryczny IP) hosta zdalnego. Połączenie będzie zaakceptowane bądź odrzucone z zależności od konfiguracji komputera zdalnego

czwartek, 2 października 2014

MODEL OSI; TCP/IP

OSI (ang. Open Systems Interconnection) lub Model OSI (pełna nazwa ISO OSI RM, ang. ISO OSI Reference Model – model odniesienia łączenia systemów otwartych) – standard zdefiniowany przez ISO oraz ITU-T opisujący strukturę komunikacji sieciowej.
Międzynarodowa Organizacja Normalizacyjna (ang. International Organization for Standardization) na początku lat osiemdziesiątych dostrzegła potrzebę stworzenia modelu sieciowego, dzięki któremu producenci mogliby opracowywać współpracujące ze sobą rozwiązania sieciowe. W taki sposób powstała specyfikacja Open Systems Interconnection Reference Model, która do polskich norm została zaadaptowana w 1995 roku.

Model ISO OSI RM jest traktowany jako model odniesienia (wzorzec) dla większości rodzin protokołów komunikacyjnych. Podstawowym założeniem modelu jest podział systemów sieciowych na 7 warstw (ang. layers) współpracujących ze sobą w ściśle określony sposób. Został przyjęty przez ISO w 1984 roku a najbardziej interesującym organem jest wspólny komitet powołany przez ISO/IEC, zwany Joint Technical Committee 1- Information Technology (JTC1). Formalnie dzieli się jeszcze na podkomitety SC.
Dla Internetu sformułowano uproszczony Model TCP/IP, który ma tylko 4 warstwy.


Model TCP/IP (ang. Transmission Control Protocol/Internet Protocol) – teoretyczny model warstwowej struktury protokołów komunikacyjnych. Model TCP/IP został stworzony w latach 70. XX wieku w DARPA, aby pomóc w tworzeniu odpornych na atak sieci komputerowych. Potem stał się podstawą struktury Internetu.




Adres IP (ang. IP address) – w protokole IP liczba nadawana interfejsowi sieciowemu, grupie interfejsów (broadcast, multicast), bądź całej sieci komputerowej, służąca identyfikacji elementów sieci w warstwie trzeciej modelu OSI – w obrębie sieci lokalnej oraz poza nią (tzw. adres publiczny).
Adres IP nie jest "numerem rejestracyjnym" komputera – nie identyfikuje jednoznacznie fizycznego urządzenia – może się dowolnie często zmieniać (np. przy każdym wejściu do sieci Internet) jak również kilka urządzeń może dzielić jeden publiczny adres IP. Ustalenie prawdziwego adresu IP użytkownika, do którego następowała transmisja w danym czasie jest możliwe dla systemu/sieci odpornej na przypadki tzw. IP spoofingu (por. man in the middle, zapora sieciowa, ettercap) – na podstawie historycznych zapisów systemowych.
W najpopularniejszej wersji czwartej (IPv4) jest zapisywany zwykle w podziale na oktety zapisywane w systemie dziesiętnym i oddzielane kropkami, rzadziej szesnastkowym bądź dwójkowym (oddzielane dwukropkami bądź spacjami).

Maska podsieci, maska adresu (ang. subnetwork mask, address mask) – liczba służąca do wyodrębnienia w adresie IP części sieciowej od części hosta.
Pola adresu, dla których w masce znajduje się bit 1, należą do adresu sieci, a pozostałe do adresu komputera. Po wykonaniu iloczynu bitowego maski i adresu IP komputera otrzymujemy adres IP całej sieci, do której należy ten komputer.
adres = 128.10.2.3 = 10000000 00001010 00000010 00000011
maska = 255.255.0.0 = 11111111 11111111 00000000 00000000


środa, 24 września 2014

Sieci komputerowe.


1.Sieć komputerowa – zbiór komputerów i innych urządzeń połączonych ze sobą kanałami komunikacyjnymi. Sieć komputerowa umożliwia wzajemne przekazywanie informacji oraz udostępnianie zasobów własnych między podłączonymi do niej urządzeniami, tzw. „punktami sieci”.
Topologia sieci komputerowej
.Głównym przeznaczeniem sieci komputerowej – ideą dla której została stworzona i wciąż jest ulepszana i rozwijana – to ułatwienie komunikacji pomiędzy ludźmi, będącymi faktycznymi użytkownikami sieci. Sieć umożliwia łatwy i szybki dostęp do publikowanych danych, jak również otwiera techniczną możliwość tworzenia i korzystania ze wspólnych zasobów informacji i zasobów danych. W sensie prawnym, i w pewnym przybliżeniu, użytkownicy sieci komputerowej są również jej beneficjentami.

2.Topologia fizyczna opisuje fizyczną realizację sieci komputerowej przez układ mediów transmisyjnych. Wyróżnia się następujące podstawowe układy:





  • pierścień podwójny – komputery są połączone dwoma odcinkami kabla, np. FDDI;
    gwiazda – komputery są podłączone do jednego, centralnego punktu zwanego koncentratorem lub przełącznikiem;
  • pierścień – komputery są połączone pomiędzy sobą odcinkami kabla tworząc zamknięty pierścień, np. token ring;
  • magistrala – komputery współdzielą jeden nośnik kablowy;
  • hierarchiczna – struktura podobna do drzewa binarnego;
  • siatka – sieć rozszerzona o połączenia nadmiarowe. Rozwiązanie stosowane w sieciach, w których jest wymagana wysoka niezawodność działania.

    Cechy użytkowe sieci komputerowej

    Poniżej wyszczególniono niektóre, użytkowe cechy sieci komputerowej:
  • ułatwienie komunikacji między ludźmi.
Korzystając z sieci, ludzie mogą komunikować się szybko i łatwo przy wykorzystaniu odpowiednich programów komputerowych i oferowanych w danej sieci usług sieciowych. W odniesieniu do sieci Internet należy wyróżnić dwa rodzaje programów i skojarzone z nimi usługi:
  1. klient poczty elektronicznej – poczta elektroniczna,
  2. przeglądarka internetowa – World Wide Web.
  • udostępnianie plików, danych i informacji.
W środowisku sieciowym, upoważnieni użytkownicy mogą uzyskiwać zdalny dostęp do danych i informacji przechowywanych na innych komputerach w sieci, jak również sami mogą udostępniać posiadane zasoby.
  • udostępnianie zasobów sprzętowych.
W środowisku sieciowym każdy, podłączony do sieci komputer, może uzyskać dostęp do urządzeń peryferyjnych, uprzednio udostępnionych do wykorzystania sieciowego, takich jak np. drukarki sieciowe czy udostępnione pamięci masowe.
  • uruchamianie programów na komputerach zdalnych.
Użytkownicy mający dostęp do sieci mogą uruchamiać na swoich komputerach programy zainstalowane na komputerach zdalnych. Takich użytkowników nazywa się również użytkownikami zdalnymi,
  • rozpowszechnianie Wolnego i Otwartego Oprogramowania.
Sieć komputerowa, a w szczególności Internet, stymuluje rozwój i upowszechnianie oprogramowania tworzonego i udostępnianego na zasadach licencji GPL.

  • Składniki sieci komputerowej

    Wśród składników sieci komputerowej można wyróżnić następujące, główne grupy:
  • hosty – czyli komputery sieciowe, dzięki którym użytkownicy mają dostęp do sieci;
  • serwery – stale włączone komputery o dużej mocy obliczeniowej, wyposażone w pojemną i wydajną pamięć operacyjną i pamięć masową;
  • medium transmisyjne – nośnik informacji, realizujący funkcję kanału komunikacyjnego. Są to kable: miedziane i światłowodowe i/lub fale radiowe;
  • sprzęt sieciowy – koncentratory, przełączniki, routery, karty sieciowe, modemy, punkty dostępu;
  • oprogramowanie – programy komputerowe zainstalowane na hostach, serwerach i innych urządzeniach sieciowych.

poniedziałek, 22 września 2014

Podstawowe komendy i polecenia w Linux

  1. Polecenia związane z użytkownikami, grupami, loginami i zamykaniem systemu
    • shutdown(zamykamy Linuxa)
    • adduser (dodajemy nowego użytkownika)
    • newgrp (dodajemy nową grupę)
    • passwd (zmieniamy hasła)
    • logout (wylogowanie się)
    • who (sprawdzamy kto jest aktualnie zalogowany)
    • users (j/w)
    • w (j/w)
    • whoami (sprawdzamy kim jesteśmy)
    • mesg (zezwolenie na przyjmowania komunikatów)
    • write (wysłanie wiadomości do danego użytkownika)
    • wall (j/w tylko do wszystkich użytkowników)
    • rwall (j/w tylko do wszystkich w sieci)
    • ruser (wyświetla użytkowników pracujących w systemie)
    • talk (możliwość interaktywnej rozmowy)
    • finger(szczegółowe informacje o użytkownikach)
    • su (zmieniamy się w innego użytkownika)
    • chmod (zmieniamy parametry pliku)
    • chown (zmieniamy właściciela pliku)
    • chgrp (zmieniamy jaka grupa jest właścicielem pliku)
  2. Polecenia związane z plikami i katalogami
    • Polecenia związane z katalogami
      • ls (pokazuje nam zawartość katalogu)
      • dir (okrojona wersja ls, pochodząca z msdos'a)
      • pwd (pokazuje nam katalog w którym się znajdujemy)
      • cd (zmieniamy katalog)
      • rmdir (usuwamy katalog)
      • mkdir (nowy katalog)
    • Polecenia związane z plikami
      • cat (edytowanie tekstu)
      • rm (usuwamy plik(i))
    • Polecenia związane z kopiowaniem i przenoszeniem, plików i katalogów
      • mv (przenosimy plik lub zmieniamy jego nazwę)
      • cp (kopiujemy plik)
      • mvdir (przenosimy katalog lub zmieniamy jego nazwę)
  3. Polecenia związane z procesami
    • ps (pokazuje nam jakie procesy są aktualnie wykonywane)
    • kill ("zabijamy" procesy)
  4. Polecenia związane z pomocą
    • help (wyświetla nam wszystkie polecenia w Linuxie)
    • man (pokazuje nam pomoc do programu

niedziela, 14 września 2014

BIOS

System operacyjny (ang. Operating System, skrót OS) – oprogramowanie zarządzające systemem komputerowym, tworzące środowisko do uruchamiania i kontroli zadań użytkownika.
W celu uruchamiania i kontroli zadań użytkownika system operacyjny zajmuje się:
  • planowaniem oraz przydziałem czasu procesora poszczególnym zadaniom,
  • kontrolą i przydziałem pamięci operacyjnej dla uruchomionych zadań,
  • dostarcza mechanizmy do synchronizacji zadań i komunikacji pomiędzy zadaniami,
  • obsługuje sprzęt oraz zapewnia równolegle wykonywanym zadaniom jednolity, wolny od interferencji dostęp do sprzętu.

    budowa, rola, systemy plików, podział, przykłady

    Budowa systemu operacyjnego


    Schematyczna budowa systemu komputerowego
    Przyjęto podział na trzy główne elementy budowy systemu operacyjnego:
  • jądro systemu wykonujące i kontrolujące ww. zadania.
  • powłoka – specjalny program komunikujący użytkownika z systemem operacyjnym,
  • system plików – sposób zapisu struktury danych na nośniku.
Jądro składa się z następujących elementów funkcjonalnych:
  • planisty czasu procesora, ustalającego które zadanie i jak długo będzie wykonywane,
  • przełącznika zadań, odpowiedzialnego za przełączanie pomiędzy uruchomionymi zadaniami,
  • Dodatkowo:
    • modułu zapewniającego synchronizacje i komunikację pomiędzy zadaniami,
    • modułu obsługi przerwań i zarządzania urządzeniami,
    • modułu obsługi pamięci, zapewniającego przydział i ochronę pamięci.
    • innych zależnie od funkcji i przeznaczenia systemu.


      Podział systemów operacyjnych

      Najszerszym, ale najbardziej podstawowym kryterium podziału systemów operacyjnych jest podział na:
    • system operacyjny czasu rzeczywistego (RTOS)
    • systemy operacyjne czasowo niedeterministyczne
    Podział ten odnosi się do najbardziej podstawowej funkcjonalności systemu operacyjnego jakim jest planowanie i przydział czasu procesora poszczególnym zadaniom.
    Ze względu na sposób realizacji przełączania zadań systemy operacyjne można podzielić na:
  • systemy z wywłaszczaniem zadań
  • systemy bez wywłaszczania.
Inny rodzaj podziału to podział na:
  • otwarte systemy operacyjne
  • wbudowane systemy operacyjne.
Systemy otwarte można uruchomić na dowolnej maszynie wskazanego rodzaju np. PC i w określonym stopniu modyfikować. Systemy wbudowane jak sama nazwa wskazuje są zaszyte (wbudowane) wewnątrz urządzeń użytkowych, maszyn pojazdów itp. Aby uzyskać wysoką niezawodność pracy minimalizuje się w takich przypadkach możliwość dokonywania zmian w konfiguracji systemu operacyjnego.
Pod względem środowiska użytego do implementacji systemu można wprowadzić podział na:
  • programowe
  • sprzętowe.
Sprzętowe systemy operacyjne to: sprzętowo programowe rozwiązania integrowane z wybraną architekturą procesora. W takim przypadku sprzętowa część systemu przyśpiesza wybrany zakres czynności wykonywanych przez system (przykładowo przełączania zadań i zachowywanie ich kontekstu).
Można ustalić pewną relację pomiędzy wymienionymi kryteriami podziału. Zazwyczaj jako otwarte systemy operacyjne spotyka się systemy w pełni programowe, czasowo niedeterministyczne stosujące wywłaszczenie przy przełączaniu zadań. Wbudowane systemy operacyjne są najczęściej czasowo deterministyczne, zazwyczaj nie stosują wywłaszczenia zadań, bywa, że są realizowane również w sprzęcie.

Przykłady:
    • Apple

    • Apple DOS, ProDOS
    • Darwin
    • GS/OS
    • iOS
    • Mac OS
    • OS X, OS X Server (dawniej pod nazwami Mac OS X i Mac OS X Server)
    • A/UX
    • Lisa OS

      Google

    • Android
    • Chrome OS

      Microsoft i pochodne

    • MS-DOS
      • PC-DOS, DR-DOS, FreeDOS, DOS, QDOS
    • Microsoft Windows: 1.0, 2.0, 3.x, 95/98/Me, CE i Mobile, NT/2000/XP/2003/FLP/Vista/2008/7/8
      • PetrOS, ReactOS

piątek, 5 września 2014

Komputer (z ang. computer od łac. computare – liczyć, sumować; dawne nazwy używane w Polsce: mózg elektronowy, elektroniczna maszyna cyfrowa, maszyna matematyczna) – maszyna elektroniczna przeznaczona do przetwarzania informacji, które da się zapisać w formie ciągu cyfr albo sygnału ciągłego.
Mimo że mechaniczne maszyny liczące istniały od wielu stuleci, komputery w sensie współczesnym pojawiły się dopiero w połowie XX wieku, gdy zbudowano pierwsze komputery elektroniczne. Miały one rozmiary sporych pomieszczeń i zużywały kilkaset razy więcej energii niż współczesne komputery osobiste (PC), a jednocześnie miały miliardy razy mniejszą moc obliczeniową.
Małe komputery mogą zmieścić się nawet w zegarku i są zasilane baterią. Komputery osobiste stały się symbolem ery informatycznej i większość utożsamia je z „komputerem” właśnie. Najliczniejszymi maszynami liczącymi sąsystemy wbudowane sterujące najróżniejszymi urządzeniami – od odtwarzaczy MP3 i zabawek po roboty przemysłowe.

BUDOWA KOMPUTERA


-płyta główna 
-procesor
-ram-y
-dysk twardy
-karta graficzna
-karta muzyczna
-karta sieciowa
-wentylator
-cd-rom
-stacja dyskietek
-dvd
-cd-rw
-karta telewizyjna
-klawiatura
-myszka


PŁYTA GŁÓWNA

Najczęściej zielona, prostokątna płyta na której umieszcza się następujące układy elektroniczne komputera.

Pamięć RAM 
Pamięć ROM 
BIOS 
Chipset 
Procesor 
Gniazdo procesora 
Gniazda rozszerzeń PCI 
Złącza EIDE 
Na krawędzi płyty głównej znajdują się łącza portów szeregowych, równoległego portu klawiatury, myszy oraz portu USB, sloty (gniazda karty graficznej, muzycznej, TV itp.).


Współcześnie komputery dzieli się na:

  • komputery osobiste (PC) - o rozmiarach umożliwiających ich umieszczenie na biurku, używane zazwyczaj przez pojedyncze osoby,
  • komputery domowe - poprzedniki komputerów osobistych, korzystający z telewizora, jako monitora,
  • komputery mainframe - często o większych rozmiarach, których zastosowaniem jest przetwarzanie dużych ilości danych na potrzeby różnego rodzaju instytucji, pełnienie roli serwerów itp.
  • komputery gospodarcze - używane w gospodarstwach rolnych w celu efektywnego sterowania procesami produkcyjnymi,
  • superkomputery - największe komputery o dużej mocy obliczeniowej, używane do czasochłonnych obliczeń naukowych i symulacji skomplikowanych systemów,
  • komputery wbudowane - (lub osadzone, ang. embedded) specjalizowane komputery służące do sterowania urządzeniami z gatunku automatyki przemysłowej, elektroniki użytkowej (np. telefony komórkowe itp.) czy wręcz poszczególnymi komponentami wchodzącymi w skład komputerów.

środa, 3 września 2014

Kierunki rozwoju TI

HISTORIA TI

1940-1949 zbudowano pierwsze komputery; 1971 pierwsze mikroprocesory.


1994
Rządy USA, W. Brytanii, Japonii i Nowej Zelandii zakładają serwery WWW,
w Internecie szybko pojawiają się sklepy, banki i stacje radiowe. 1995 firmy Internetowe pojawiają się na  1997 Moc obliczeniowa komputerów wzrasta do poziomu 1/10.000 ludzkiego mózgu.
komputery dowodzą twierdzenia, z którymi nie radzą sobie matematycy;
komputery coraz lepiej rozpoznają twarze i zamieniają mowę na tekst.

1998
po 3 latach rozwoju WWW jest wszędzie;
transakcje pomiędzy ludźmi a systemami sterowanymi głosem stają się częste; bazy danych przyjmują polecenia głosowe, są już komercyjne systemy do dyktowania tekstu;
samochodowe systemy nawigacyjne uzywają komputerowych map i GPS;
komputer prowadzi samochód bez udziału człowieka przez całe USA ze średnią szybkością 70 mil/h;


1999
sprzedaż firmy Intel przez WWW osiąga 1 mld $/miesiąc.
ewoluujące wirtualne Babyz, czyli sztuczna inteligencja w grach;
pierwsze roboty - zabawki, pieski AIBO;
superkomputery rzędu 1/1000 ludzkiego mózgu.
pierwsze eksperymenty pokazujące możliwość zbudowania kwantowego komputera;
przeszczepiono głowę małpie, można będzie przeszczepić głowę człowiekowi;
implanty do nerwu ucha stosuje się rutynowo; sztuczna siatkówka znajduje się w fazie testów,
sztuczne siatkówki i bezpośrednie podłączenie kamery do kory wzrokowej;

2000
zakończono 5 lat przed planowanym czasem mapowanie ludzkiego genomu; dla bioinformatyki moc komputerów to prawie wszystko;
komórki macierzyste wszczepione do mózgu zamieniają się w neurony;
urządzenia gospodarstwa domowego (lodówki, mikrofalówki) podłączone do Internetu;
automatyczne tłumaczenie stron WWW pomiędzy wieloma językami (niezłe chociaż niedoskonałe);


pierwsze roboty zaprojektowane przez komputerowe programy, zbudowane przez roboty, obserwowane w środowisku i automatycznie ulepszane przez programy oparte na algorytmach ewolucyjnych; pierwsze roboty rozpoznające emocje i reagujące w emocjonalny sposób;


W niektórych dziedzinach nauki ponad 90% czytanych prac pochodzi z Internetu; doskonałe archiwa specjalistyczne automatycznie indeksują wszystkie dostępne w Internecie prace oceniając je według liczby cytowań;







PRZYSZŁOŚĆ

2030-2050
Co będzie możliwe za 30 lat? Nie mamy pojęcia!
Na pewno świat nie będzie podobny do dzisiejszego.

Za 1000 $ można kupić komputer (kwantowy?) o mocy rzędu 1000 mózgów;
3 wymiary są mało interesujące - ewolucja myśli przenosi się w światy wielowymiarowe;

upowszechniają się bezpośrednie połączenia z mózgiem, implanty i sterowanie myślami; dzięki implantom wirtualna rzeczywistość nie różni się od wrażeń realnych;

Rozwinie się Komputer DNA (biokomputer), w którym obliczenia zachodzą dzięki reakcjom chemicznym między cząsteczkami DNA..
roboty będą rozpoznawać emocje i będą reagować w emocjonalny sposób;
maszyny przechodzą test Turinga i twierdzą, że są świadome i większość ludzi to akceptuje;
cała sfera produkcji i większość usług jest w pełni zautomatyzowana;
osobowości ludzkie mieszają się ze sztucznymi - osiągnięta zostaje całkowita rozszerzalność umysłu, praktyczna nieśmiertelność. być może przeprowadzka z umysłu do umysłu sztucznego i odwrotnie będzie możliwa, być może sprzężenie pomiędzy umysłami stanie się na tyle silne, by powstał jeden umysł ...

ASPEKTY ETYCZNE
 W przyszłości możemy spotkać z twierdzeniem, że komputery znajdują się  na równi z żywym organizmem, posiadają pełną świadomość i będą odbierać bodźce emocjonalne. Spowoduje to problem natury etycznej, z którym będziemy musieli sobie poradzić.

PRAWA AUTORSKIE

Prawo autorskie  – pojęcie prawnicze oznaczające ogół praw przysługujących autorowi utworu albo zespół norm prawnych wchodzących w skład prawa własności intelektualnej, upoważniających autora do decydowania o użytkowaniu dzieła i czerpaniu z niego korzyści finansowej.

Przyjęta w 1994 roku ustawa o prawie autorskim i prawach pokrewnych reguluje między innymi przedmiot i podmiot prawa autorskiego, wyjątki i ograniczenia praw autorskich, okres obowiązywania praw autorskich oraz ochronę przedmiotu prawa autorskiego. Podstawowym założeniem jest rozróżnienie autorskich praw

LICENCJE

Licencja - dokument prawny lub umowa, określająca warunki korzystania z utworu, którego dana licencja dotyczy. Właściciel praw autorskich, znaku handlowego lub patentu może (i często to robi) wymagać od innych posiadania licencji jako warunku użytkowania lub reprodukowania licencjonowanego utworu.

  • Licencja pełna - zezwolenie uprawnionego do korzystania z prawa przez licencjobiorcę w tym samym zakresie co uprawniony i jego posiadacz.
  • Licencja wyłączna - zezwolenie uprawnionego do wyłącznego korzystania z prawa na określonym terytorium lub polu eksploatacji prawa.
  • Licencja niewyłączna - licencja która nie ogranicza grona licencjobiorców, dopuszczając wzajemną konkurencję.