www.eprace.edu.pl » marka-w-internecie » Podstawowe pojęcia marketingu elektronicznego » Historia i geneza internetu

Historia i geneza internetu

Internet powstał jako połączenie dwóch myśli technologicznych, które ewoluowały w Stanach Zjednoczonych od lat 1960. Piewszą z nich była potrzeba redukcji ilości papieru używanego w obrocie dokumentami w amerykańskich firmach logistycznych. Ówczesny rosnący obrót towarowy pomiędzy Stanami Zjednoczonymi a resztą świata czynił tradycyjne metody zarządzania nieskutecznymi. Niewyobrażalne ilości zadrukowanych dokumentów, które musiały przewędrować wiele organizacji, aby zalegalizować lub obliczyć transportowane towary, wymusiły poszukiwanie nowych rozwiązań zarządzania gospodarką spedycyjną. W 1968 roku różne firmy przewozowe powołały do życia organizację Transportation Data Coordinating Committee (TDCC), która miała na celu analizę i redukację obrotu dokumentami pomiędzy firmami transportowymi oraz spedycyjnymi. W następnych dekadach powstały dzięki pracy tego komitetu kolejne etapy systemów EDI (Electronic Document Interchange), które służyły jako podstawa techniczna elektronicznej wymiany dokumentów pomiędzy firmami oraz instytucjami państwowymi.1

Oprócz ewolucji elektronicznych systemów wymiany dokumentów w latach '60 miał miejsce równoległy rozwój nowej technologii z dziedziny cyfrowej wymiany danych, opracowanej w Departamencie Obrony Stanów Zjednoczonych. Jego zwierzchnicy, z uwagi na sytuację geopolityczną grożącą globalnym konfliktem zbrojnym, byli wówczas bardzo zatroskani o skutki ataku nuklearnego i zlecili badania nad systemem dowodzenia (ergo przepływu informacji), który przetrwałby atak. Z natury rzeczy, taki system dowodzenia musiał być zdecentralizowany, aby w przypadku zniszczenia nawet dużych jego połaci, pozostałe części systemu mogły kontynuować swoją pracę nieprzerwanie.2

Pierwsza myśl technologiczna przytoczona w tym wywodzie była zatem zalążkiem idei biznesu elektronicznego. Natomiast druga myśl stanowiła podwaliny dla samej infrastruktury, która dzisiaj występuje pod postacią modemów, linii światłowodowych, połączeń satelitarnych i wielu innych tzw. warstw fizycznych, które tworzą sieć Internet.

Przez 30 lat obie technologie rozwijały się niezauważone przez ludzi niewtajemniczonych w zachodnie kręgi naukowe, biznesowe i wojskowe. Dopiero w latach '80 cyfrowe technologie zawitały do statystycznie przeciętnych gospodarstwach. Stało się tak z uwagi na wejście na rynek światowy pierwszych komputerów osobistych, czyli takich, z których można z powodzeniem korzystać w domu, niezależnie od centrów obliczeniowych znajdujących się na uczelniach, w wojsku i dużych firmach. Zaowocowało to pierwszym oswojeniem się szerokich mas społeczeństw zachodnich z komputerami w roli domowych towarzyszy, a nie tylko narzędzi do pracy w wielkich organizacjach3.

Owocami wysokiej liczby sprzedanych komputerów osobistych w latach '80 było zaadoptowanie tego zjawiska przez pop-kulturę i dzięki temu coraz szersze wtopienie nowych technologii w codzienny krajobraz medialno-kulturowy. Powstało wiele tytułów literackich oraz kinematograficznych, które przybliżały jeszcze wtedy nieco fantastyczny temat światowej sieci komunikacyjnej ludziom, którzy przez wiele lat korzystali tylko z telefonu i faksu. Najgłośniejszym dziełem z lat 1980 jest “Neuromancer” Williama Gibsona, które zaowocowało całym ruchem literackim o nazwie “Cyberpunk”, opisującym nadchodzącą epokę ludzkiej cywilizacji w kontekście wzmożonej komunikacji oraz cyfrowych technik dozoru nad obywatelami państwa informacyjnego4. Tego typu ruchy oraz inicjatywy powstawały w wielu dziedzinach, bowiem pierwsze komputery przeznaczone dla mas okazały się bardzo przydatne oraz inspirujące nie tylko dla naukowców, lecz dla obywateli z wielu innych dziedzin życiowych i zawodowych5.

Zatem pierwsze oznaki powstawania społeczeństwa informacyjnego były spowodowane nie tylko obiektywną przydatnością tych urządzeń, ale również tym, że stanowiły one nośny temat pop-kulturowy, a co za tym idzie, również popytem, jaki ten temat kreował. Rosnąca sprzedaż komputerów uruchamiała efekt skali, który zaowocował w latach 90 szybko malejącymi cenami. Indeks cen amerykańskiej branży technologii informacyjnych zmniejszył się od 1987 roku o ponad połowę względem jego poziomu w roku 20006. Indeks ten uwzględnia natomiast produkty na bieżącym etapie technologicznym i nie uwzględnia o wiele szybciej spadających cen towarów starzejących się moralnie oraz rosnącej użyteczności aktualnych technologii.

Firmy technologiczne, na czele producent mikroprocesorów Intel, zaczęły rozwijać coraz potężniejsze układy scalone, oferując je z sezonu na sezon za niższą cenę. W roku 1987, od którego w amerykańskim bilansie makroekonomicznym figuruje pozycja 92 “Technologie informacyjne”, obrót w tej branży wynosił 343.6 Mld US$.
Do roku 2000 zwielokrotnił się on do 1000.8 Mld US$7. Jednocześnie postępowała spirala zwielokratniania mocy obliczeniowej mikroprocesorów. Współzałożyciel firmy Intel, Gordon Moore, oszacował rozwój technologii krzemowej jako okres 18-miesięczny, w którym moc się podwaja, a cena spada o połowę8.

W 1996 roku, Andrew Grove, ówczesny prezes korporacji Intel, oszacował, iż liczba sprzedanych komputerów osobistych po raz pierwszy w historii przekroczyła liczbę sprzedanych telewizorów9. Bogaty wybór oraz dowolny dobór treści dostępnych dla komputerów m.in. poprzez internet sprawiły, że cyfrowe media stały się bardziej popularne niż telewizja oraz dzienniki. Ten rok w historii społeczeństw informacyjnych uwieńczył przejście od mediów statycznych do mediów interaktywnych, które się rozpoczęło wraz z ich wynalezieniem na początku lat 1980 w postaci pierwszych wysoce interaktywnych programów komputerowych10.

Podwaliny dla popularyzacji internetu wśród zwykłych obywateli Stanów Zjednoczonych położyła ustawa High Performance Computing and Communication act of 1991, przygotowana przez ówczesnego Senatora Al Gore'a i podpisana przez Prezydenta George'a Bush'a. Dzięki tej oraz późniejszej ustawie Telecommunication act of 1996 rozbudowa cyfrowych sieci telekomunikacyjnych sięgnęła niespotykane rozmiary (wykres 1.1.1 oraz 1.1.2). W roku 2001 doszło do poważnego przeinwestowania autostrady cyfrowej. Wiele firm zbankrutowało, pozostawiając po sobie ogromną niewykorzystaną globalną infrastrukturę światłowodową11, która została po jej przecenie przejęta przez konkurencję. Globalna sieć mogła się zatem rozwijać bez żadnych barier technicznych, oczywiście tam, gdzie ustawodawca zawczasu zliberalizował prawo telekomunikacyjne i pozwolił prywatnym firmom inwestować w infrastrukturę telekomunikacyjną.


Rys. 1: Inwestycje w branży telekomunikacyjnej w U.S.A. w latach 1991-2002, Mark Doms, The Boom and Bust in Information Technology Investment



Rys. 2: Liczba komputerów podł˘czonych do internetu 1992-2007, opracowanie własne na podstawie danych Internet Systems Consortium

Powyższe wykresy przedstawiają powiązane ze sobą zjawiska prywatnych inwestycji w sieci cyfrowe (rys. 1) oraz wzrostu liczby komputerów podłączonych do internetu (rys. 2). W obu przypadkach w latach '90 XX wieku został odnotowany silni trend wzrostowy, wynikający z w/w ustawy Telecommunications Act mającej promować budowę autostrady informacyjnej jako medium nowego wieku.

Z dzisiejszego punktu widzenia najpopularniejszą innowację internetu stanowią dwa jego podzespoły. Są nimi poczta elektroniczna (i inne formy komunikacji międzyludzkiej) oraz tzw. World Wide Web, zwane również WWW albo Web.

Technologia WWW została wynaleziona w 1993 roku w centrum badawczym CERN w Genewie. Stanowi ona implementację idei tzw. hipertekstu, polegającego na redagowaniu i przyswajaniu nie-linearnych treści pisanych12. Przykładami takich tekstów w dziejach ludzkości są księga Talmud, hinduskie księgi święte, kodeksy prawne oraz encyklopedie, zawierające niezliczone ilości adnotacji oraz odsyłaczy do innych części tekstu. W celu realizacji tej techniki w internecie, sieć WWW posługuje się tzw. linkami (lub łączami), aby zrealizować ideę asocjacyjnego poruszania się po zapisanych stronach niczym po labiryncie informacyjnym. Dzięki temu czytelnik ma większą swobodę indywualnego doboru treści i krótszą drogę do znalezienia właściwych danych.

Szybko rosnąca popularność internetu spowodowała również szybko rosnącą liczbę stron internetowych posługujących się mechanizmem hipertekstu. Strony te były i są połączone ze sobą za pomocą odsyłaczy, lecz w zupełnie chaotyczny sposób. Każda osoba posiada swobodę stworzenia własnej strony internetowej i tak nastała na początku dziejów WWW potrzeba skatalogowania tych stron, wybierając najciekawsze z nich i umieszczając je w przewodnikach po stronach WWW. Pionierami w tej dziedzinie byli Jerry Yang oraz David Filo, doktoranci Uniwersytetu Stanford. Stworzyli oni w 1995 roku wtedy jeszcze hobbistyczny katalog stron internetowych o nazwie Yahoo!13.

Równolegle do tego katalogu przybywało stron internetowych i powstawały pierwsze metody Information Retrieval, czyli wyszukiwania informacji w rozproszonych meandrach sieci WWW. Mechanizmy wyszukiwania polegają na wysyłaniu z jednego komputera wiele zapytań do całego internetu i stworzenia za pomocą tych zapytań tzw. indeksu (w sensie spisu treści) zawartości całej sieci14. Od połowy lat '90 XX wieku funkcjonowało wiele wyszukiwarek internetowych, które udoskonalały metody wyszukania istotnych informacji w morzu nieistotnych dokumentów. Najsilniejszą z nich okazał się Google, który dzisiaj zajmuje nieprzerwanie pierwsze miejsce w rankingach najpopularniejszych stron internetowych we wszystkich rozwiniętych krajach15. Dzięki wysoce interaktywnym i jednocześnie łatwym w obsłudze mechanizmom wyszukiwawczym, strona google.com jest pierwszą instancją, na której większość użytkowników internetu szuka potrzebnych im informacji. Obecna era internetu to zatem era wyszukiwania informacji.

Następnym etapem będzie według prognozy Tim'a Berners'a Lee, założyciela WWW i szefa jednostki standaryzacyjnej W3C (World Wide Web Consortium), tzw. sieć semantyczna, opierająca się na meta-informacjach. Meta-informacje w kontekście informatycznym służą do opisywania zawartości dokumentów i plików. W latach '90 XX wieku były w tym celu wykorzystywane słowa-klucze. Natomiast w przyszłości nastąpi opis każdego dokumentu w sieci Web w jego znaczeniu ontologicznym, czyli jego “istocie jako takiej”, umożliwiając większą trafność w dokonanych wyszukiwaniach. Od roku 1998, tj. od daty publikacji koncepcji Semantic Web, powstają ku temu standardy opisujące wszelakiego rodzaju dane, od finansowych, po medyczne, słowem, wszelką wiedzę dostępną ludzkości16, tak aby pewnego dnia nie tylko zapisać cyfrowo każdą informację, ale ją również bezbłędnie móc odnaleźć, bez zwracania uwagi na to, kto, gdzie i czego szuka. Użytkownik internetu będzie otrzymywał dokładnie takie informacje, jakie go interesują, bowiem powstanie prawdziwe łącze pomiędzy światem ludzkich znaczeń i cyfrowymi zasobami globalnej sieci. Użytkownik nie będzie już musiał niepotrzebnie przeglądać dziesiątek stron w wynikach wyszukania, jak to ma miejsce obecnie17.

Niniejsze opracowanie skupi się natomiast na dzisiejszym etapie rozwoju internetu na tle dotychczasowej praktyki w tej branży, która w ciągu ostatniej dekady przeżyła bardzo szybki wzrost i w obecnych czasach stanowi dojrzały rynek, aczkolwiek wciąż dostępny dla nowych graczy z odpowiednią dozą inwencji.

Obecni giganci rynku internetowego pomimo otrzymania w dobrej wierze wielomilionowych zastrzyków pieniężnych od inwestorów nie mieli często nawet modelu biznesowego, czyli brakowało im podstawowego elementu każdego biznes-planu18. Zdobyli oni popularność dzięki innowacyjnej idei na wirtualnym rynku, który był jeszcze niezagospodarowany i posiadał dużą chłonność dla wszelakich usprawnień, jak wyżej przytoczone katalogi i wyszukiwarki. Liczby odwiedzin, czyli dla przyszłych reklamodawców ilości obejrzanych reklam, szły w miliony, zanim został opracowany jeszcze model sprzedaży jakichkolwiek reklam w nowej rzeczywistości. Na pierwszym planie liczyło się zdobycie jak największej popularności, bo tylko wtedy można przejąć prymat przywództwa w internecie. Wtedy też, posiadając ustabilizowane statystyki popularności w wyjątkowo niestabilnym rynku, można stworzyć realny model sprzedaży. Przed nadejściem takiej stabilizacji nie było możliwości indukowania rozbudowanych koncepcji biznesowych, bowiem w czasach pionierskich liczył się refleks i szybkie zdobycie dużej publiczności bez przykładania wagi do reguł biznesowych, które dla tej branży musiały zostać dopiero wymyślone. Otoczenie spółek internetowych, i również one same, zmieniały się w niepojętym tempie. Firmy Venture Capital finansujące tego typu przedsięwzięcia poważnymi kwotami, wśród których Sequoia Capital posiada znaczny dorobek legendarnych spółek, jak Google, Yahoo i YouTube19, wiedziały intuicyjnie o konieczności szybkiego działania i udostępniały pomysłowym studentom lub absolwentom pokaźne środki pieniężne bez potrzeby silnej perswazji, wszak o ile pomysł był obiecujący.

Dzięki szybkiej reakcji amerykańskiego rynku inwestorów na nadarzającą się okazję zarobienia ogromnej fortuny powstała bańka spekulacyjna, która swój ostatni szczyt osiągnęła 10 Marca 2000, przeceniająć cały NASDAQ w ciągu następującego miesiąca o 35%20. Firmy, które posiadały solidny model biznesowy i na bieżąco zbierały nauki o nowej gospodarce w/g zasad wyniesionych ze Starej Gospodarki, przetrwały tą przecenę.

Przedsięwzięcia internetowe zapoczątkowane po wielkim krachu w 2000 roku wkraczają zatem w dojrzały już rynek i mogą czerpać naukę z bogatego doświadczenia firm powstałych w epoce gorączki złota i pionierskiej kolonializacji wirtualnej przestrzeni. “Ogromna eksplozja handlu elektronicznego oznacza, że firmy wchodzące do sieci mogą teraz korzystać z doświadczeń swoich poprzedników”21. Nauka ta stanowi punkt wyjścia niniejszego opracowania.



komentarze

Copyright © 2008-2010 EPrace oraz autorzy prac.