Empiryczne i teoretyczne poziomy wiedzy naukowej. Wiedza empiryczna i teoretyczna

Biorąc pod uwagę specyfikę metod poznania naukowego, należy rozumieć, że umiejętność posługiwania się tymi metodami zawsze wymaga posiadania wiedzy specjalistycznej. Należy to wziąć pod uwagę, ponieważ wszelkie formy i rodzaje działalności naukowej koniecznie wymagają odpowiedniego przeszkolenia specjalistów, którzy się nią zajmują.” . Empiryczne metody poznania - w tym nawet najbardziej "proste" z nich - obserwacja - zakładają do ich realizacji, po pierwsze, obecność pewnej wiedzy teoretycznej, a po drugie, użycie specjalnego i często bardzo złożonego sprzętu. Oprócz, prowadzenie jakichkolwiek badań naukowych zawsze implikuje zaistnienie pewnej sytuacji problemowej, w celu rozstrzygnięcia, jakie badania te są prowadzone . Zatem metody empiryczne poznania naukowego nie są wcale tym samym, co stosunkowo podobne metody badania rzeczywistości, które są realizowane z punktu widzenia zdrowego rozsądku iw ramach codziennej, praktycznej oprawy.

Empiryczne metody poznania naukowego obejmują:

1. Obserwacja;

2. Eksperyment;

3. Pomiar.

Spośród wymienionych metod poznania naukowego obserwacja jest metodą stosunkowo najprostszą, gdyż np. pomiar, przy założeniu wykonania dodatkowych procedur, z konieczności implikuje odpowiednią obserwację jako swoją podstawę.

Obserwacja

Obserwacja naukowa to z reguły celowe postrzeganie obiektów, zjawisk i procesów otaczającego świata. Osobliwość obserwacja jest taka, że ​​jest to metoda bierny rejestracja pewnych faktów rzeczywistości. Wśród rodzajów obserwacji naukowych można wyróżnić:

W zależności od celu obserwacji można je podzielić na: weryfikacja oraz Szukaj ;

Zgodnie z naturą istnienia tego, co jest badane, obserwacje można podzielić na obserwacje obiektów, zjawisk i procesów, które istnieją obiektywnie , tj. poza świadomością obserwatora i introspekcji, tj. introspekcja ;

Obserwację obiektywnie istniejących obiektów dzieli się zwykle na: natychmiastowy oraz pośredni obserwacje.

W ramach różnych nauk inna jest rola i miejsce metody obserwacji. W niektórych naukach obserwacja jest praktycznie jedynym sposobem uzyskania wstępnych wiarygodnych danych. Szczególnie w astronomii. Chociaż nauka ta jest zasadniczo stosowaną gałęzią fizyki i dlatego opiera się na koncepcjach teoretycznych tej podstawowej nauki przyrodniczej, to jednak wiele danych, które są istotne konkretnie dla astronomii, można uzyskać tylko poprzez obserwację. Na przykład wiedza o obiektach znajdujących się w odległości kilku lat świetlnych. Dla socjologii obserwacja jest także jedną z głównych metod empirycznej wiedzy naukowej.



Obserwacja naukowa dla jej pomyślnego wdrożenia wymaga obecności sytuacji problemowej, a także odpowiedniego wsparcia koncepcyjnego i teoretycznego. Podstawą obserwacji naukowej z reguły jest jakaś hipoteza lub teoria, dla potwierdzenia lub obalenia przeprowadzana jest odpowiednia obserwacja. . Rolę i miejsce czynników pojęciowych w obserwacji naukowej, a także specyfikę ich poszczególnych typów, można pokazać na poniższych przykładach.

Jak wiadomo, ludzie obserwowali ruch obiektów na niebie od niepamiętnych czasów i w wyniku tego doszli do całkiem naturalnego, w ramach zdrowego rozsądku, wniosku, że Ziemia z umieszczonymi na niej obserwatorami stoi nieruchomo, a planety poruszają się wokół niego równomiernie po regularnych orbitach kołowych. Aby wyjaśnić, dlaczego te planety nie spadają na Ziemię, ale unoszą się w kosmosie, zasugerowano, że Ziemia znajduje się w kilku przezroczystych szklanych kulach, w których planety i gwiazdy są jakby przeplatane. Obrót tych sfer wokół własnej osi, która pokrywa się ze środkiem naszej planety, prowadzi do tego, że powierzchnia sfer zaczyna się poruszać, ciągnąc mocno osadzone na niej planety.

Chociaż to pojęcie jest całkowicie błędne, jest zgodne z odpowiadającą mu zdroworozsądkową logiką, że aby ciało mogło się poruszać i nigdy nie upaść, musi się czegoś trzymać (w tym przypadku przyczepić do przezroczystych sfer). Pogląd, że ciało może poruszać się w sposób ciągły po zamkniętej trajektorii bez wsparcia, wydaje się niewiarygodny dla myślenia w ramach zdrowego rozsądku odpowiedniej epoki. Należy zauważyć, że na swój sposób zdrowy rozsądek jest „słuszny”: faktem jest, że rzeczywiście w ramach naturalnego, zwyczajnego i przedteoretycznego postrzegania ruchu ciał na Ziemi nie widzimy cokolwiek, co mogłoby cały czas poruszać się po zamkniętej trajektorii, zawisać i niczego nie dotykać, a jednocześnie nie spadać. Newton, który odkrył prawo powszechnego ciążenia, naturalnie zaobserwował również ruch różnych ciał ziemskich i kosmicznych, w tym Księżyca. Jednak nie tylko na nie patrzył, ale wykorzystywał obserwacje, aby zrozumieć z nich to, czego nie widać. Mianowicie: porównując dane dotyczące prędkości ruchu Księżyca wokół Ziemi i ich odległości między sobą z charakterystyką ruchu ciał spadających na Ziemię, doszedł do wniosku, że za tym kryje się jeden i ogólny wzór wszystko to, co nazwano „prawem grawitacji”.

Ten przykład można traktować jako przypadek Szukaj obserwacji, której wynikiem było sformułowanie odpowiedniego prawa. Celem obserwacji eksploracyjnej jest zebranie faktów jako podstawowego materiału empirycznego, na podstawie którego można zidentyfikować to, co ogólne i zasadnicze. Kontrola Obserwacja różni się od eksploracyjnej tym, że tutaj ostatecznym celem nie jest poszukiwanie nowej wiedzy teoretycznej, ale sprawdzenie już istniejącej. Obserwacja weryfikacyjna to próba weryfikacji lub obalenia hipotezy. Przykładem takiej obserwacji jest np. próba upewnienia się, że prawo grawitacji ma rzeczywiście uniwersalny charakter, tj. że jego działanie rozciąga się na interakcję z dowolnymi masywnymi ciałami. W szczególności z tego prawa wynika, że ​​im mniejsza jest masa oddziałujących ze sobą ciał, tym mniejsza jest siła przyciągania między nimi. Jeśli więc możemy zaobserwować, że siła przyciągania w pobliżu powierzchni Księżyca jest mniejsza niż ta sama siła na powierzchni Ziemi, która jest cięższa od Księżyca, to wynika z tego, że obserwacja ta potwierdza prawo grawitacji. Podczas lotu astronautów można zaobserwować zjawisko nieważkości, kiedy ludzie swobodnie unoszą się wewnątrz statku, właściwie nie będąc przyciąganym przez żadną z jego ścian. Wiedząc, że masa statku kosmicznego jest praktycznie znikoma w porównaniu z masą planet, obserwację tę można uznać za kolejny test prawa grawitacji.

Rozważane przykłady można uznać za przypadki natychmiastowy obserwacje obiektywnie istniejących obiektów. Obserwacje bezpośrednie to takie obserwacje, gdy odpowiednie obiekty można postrzegać bezpośrednio, widząc je same, a nie tylko skutki, jakie wywierają na inne obiekty. W przeciwieństwie do bezpośredniej obserwacji pośredni obserwacje to te, w których sam przedmiot badań nie jest w ogóle obserwowany. Jednak mimo to, w przypadku obserwacji pośrednich, nadal można zaobserwować wpływ nieobserwowanego obiektu na inne, obserwowane obiekty. Niezwykłe zachowanie lub stan obserwowalnych ciał, którego nie można wytłumaczyć założeniem, że w rzeczywistości istnieją tylko bezpośrednio obserwowalne ciała i jest to warunek wstępny obserwacji pośredniej. Analizując cechy nietypowego zachowania widocznych obiektów i porównując je z przypadkami zwykłego zachowania tych obiektów, można wyciągnąć pewne wnioski na temat właściwości obiektów nieobserwowalnych. Niezwykłym elementem zachowania ciał widzialnych jest pośrednia obserwacja tego, co nie jest bezpośrednio obserwowalne. Przykładem obserwacji pośrednich może być np. sytuacja związana z „ruchem Browna”, a także empiryczny komponent wiedzy o „czarnych dziurach”.

Ruch Browna to ciągły ruch najmniejszych, ale wciąż za pomocą wystarczająco silnego mikroskopu, wizualnie obserwowalnych cząstek dowolnej substancji w cieczy. W przypadku ruchu Browna pytanie jest całkiem naturalne: co jest przyczyną obserwowanego ruchu tych cząstek? Odpowiadając na to pytanie, możemy założyć, że istnieją inne, niewidzialne cząstki, które zderzają się z widocznymi i tym samym je popychają. Jak wiadomo, powodem ruchu Browna jest to, że obiekty, których nie obserwuje się wzrokowo za pomocą mikroskopu optycznego - atomy i cząsteczki - cały czas zderzają się z obserwowanymi cząsteczkami, powodując ich ruch. Tak więc, chociaż same atomy i cząsteczki w zakresie optycznym (światło widzialne) są generalnie nieobserwowalne, to jednak jeszcze przed wynalezieniem mikroskopu elektronowego można było zaobserwować ich indywidualne właściwości. Oczywiście tylko pośrednio.

Jeśli chodzi o „czarne dziury”, to w zasadzie nie da się ich zaobserwować bezpośrednio. Faktem jest, że działająca w nich siła grawitacyjna jest tak duża, że ​​żaden obiekt – w tym światło widzialne – nie jest w stanie przezwyciężyć przyciągania tych obiektów. Jednak czarne dziury można zaobserwować pośrednio. W szczególności w związku z charakterystyczną zmianą w obrazie gwiaździstego nieba w ich pobliżu (spowodowaną krzywizną przestrzeni przez siły grawitacyjne) lub w przypadku, gdy czarna dziura i samoświecący obiekt (gwiazda) tworzą jeden układ , który zgodnie z prawami mechaniki obraca się wokół wspólnego środka masy. W tym drugim przypadku niezwykły ruch gwiazdy po zamkniętej trajektorii (w końcu tylko on jest bezpośrednio obserwowalny) będzie przypadkiem pośredniej obserwacji czarnej dziury.

Introspekcja Jest to obserwacja osoby nad treścią własnej świadomości. Pod koniec lat 40. XX wieku. Poniższe badanie zostało przeprowadzone w USA. Aby dowiedzieć się, czy w przypadku paraliżu ciała możliwe jest funkcjonowanie świadomości, podmiotowi wstrzyknięto pochodną kurary, substancję paraliżującą cały układ mięśniowy człowieka. Okazało się, że pomimo paraliżu mięśni (pacjent był podłączony do aparatu sztucznego oddychania, ponieważ nie mógł samodzielnie oddychać), zachowana została zdolność do świadomej aktywności. Badany był w stanie obserwować to, co się wokół niego działo, rozumiał mowę, zapamiętywał wydarzenia i myślał o nich. Na tej podstawie wywnioskowano, że aktywność umysłową można prowadzić przy braku jakiejkolwiek aktywności mięśniowej.

Dane uzyskane w wyniku obserwacji mogą twierdzić, że mają status naukowy tylko wtedy, gdy uzna się ich obiektywność. Istotnym czynnikiem jest w tym odtwarzalność tego, co kiedyś widzieli inni. Jeśli np. ktoś deklaruje, że obserwuje coś, czego inni nie widzą w podobnych warunkach, to będzie to wystarczający powód do nieuznania naukowego statusu tej obserwacji. Jeśli jednak jakaś „obserwacja” przeczy również dobrze znanym i ugruntowanym wzorom z dowolnej dziedziny wiedzy, to w tym przypadku można ze znaczną dozą pewności stwierdzić, że „obserwowany” fakt faktycznie nigdy nie istniał. w ogóle. Podobno jeden z najbardziej znanych przypadków takiej pseudoobserwacji można uznać za historię potwora z Loch Ness.

Aby nadać obserwacji status wiedzy istotnej naukowo ważny punkt jest uzasadnieniem, że obserwowany obiekt, ta lub inna z jego właściwości istnieje obiektywnie i są nie tylko wynikiem oddziaływania zestawu narzędzi, z którego korzysta obserwator. Przykładem rażącego błędu może być przypadek, gdy np. aparat fotografuje obiekt, który w rzeczywistości nie jest odległym obiektem naświetlonej panoramy, ale artefaktem, który przypadkowo przykleił się do elementów układu optycznego aparatu (np. na przykład drobinka kurzu na obiektywie).

Problem uwzględniania i minimalizowania wpływu podmiotu-badacza na badany obiekt jest typowy nie tylko dla nauk przyrodniczych, ale także dla nauk społecznych. W szczególności w ramach socjologii istnieje pojęcie „ uwzględniona obserwacja ", tj. np. badacz, który zbiera dane o określonej grupie społecznej, mieszkając w pobliżu lub nawet będąc częścią tej grupy przez dość długi czas. To drugie ma na celu to, aby ci, którzy są obiektem obserwacji, przyzwyczaili się do obecności zewnętrznego obserwatora, nie zwracali na niego szczególnej uwagi i zachowywali się w jego obecności tak, jak zwykle.

Eksperyment

Główna rzecz Różnica między eksperymentem a obserwacją polega na tym, że nie jest to metoda pasywnego rejestrowania danych, ale taki sposób poznawania rzeczywistości, gdzie w celu badania istniejących powiązań i zależności celowo organizuje się przepływ odpowiednich procesów i zjawisk. . Podczas eksperymentu badacz świadomie ingeruje w naturalny bieg wydarzeń, aby zidentyfikować, choć istniejące, ale często nieoczywiste powiązania między badanymi zjawiskami. Eksperyment jest zwykle określany jako empiryczne metody poznania, ponieważ tutaj z reguły ma on manipulować obiektywnie istniejącymi obiektami i procesami świata materialnego, co oczywiście można zaobserwować. Eksperyment jest jednak nie mniej związany z pewnymi koncepcjami teoretycznymi. Każdy eksperyment jest zawsze oparty na pewnej hipotezie lub teorii, dla potwierdzenia lub obalenia przeprowadzany jest odpowiedni eksperyment.

Wśród rodzajów badań eksperymentalnych można wyróżnić:

Z punktu widzenia celu prowadzenia eksperymentów, a także obserwacji naukowych można je podzielić na: weryfikacja oraz Szukaj ;

W zależności od obiektywnych cech obiektów, z którymi prowadzone są badania, eksperymenty można podzielić na: proste oraz Model ;

Eksperyment nazywa się bezpośredni gdy przedmiotem badań jest rzeczywisty przedmiot lub proces, oraz Model , gdy zamiast samego przedmiotu stosuje się z reguły jego zredukowany model. Szczególnym rodzajem eksperymentów modelowania jest badanie modeli matematycznych określonych obiektów lub procesów. Dotyczący " eksperymenty myślowe " - tj. gdzie w ogóle nie prowadzi się prawdziwych badań, a jedynie wyobraża się sobie przebieg pewnych procesów i zjawisk – wtedy tych ostatnich, ściśle rzecz biorąc, nie można przypisać do dziedziny wiedzy empirycznej, gdyż w swej istocie stanowią one rodzaj badań teoretycznych . Jednak w wielu przypadkach na podstawie eksperymentu myślowego można również przeprowadzić prawdziwe badanie eksperymentalne, które można uznać za materializację odpowiednich pomysłów teoretycznych.

Aby zrozumieć rola eksperymentu jako metody poznania naukowego należy sobie wyobrazić, że rzeczywistość, z którą ma do czynienia badacz, początkowo jawi mu się nie jako ściśle i systematycznie zorganizowany łańcuch powiązań i związków przyczynowych, lecz jedynie jako mniej lub bardziej uporządkowana całość, w ramach której rola i wpływ niektóre czynniki często nie są do końca oczywiste. Dlatego warunkiem wstępnym eksperymentu jest sformułowanie hipotezy o tym, jak badane czynniki mogą być ze sobą powiązane i aby zweryfikować tę rzekomą zależność, konieczne jest stworzyć warunki do wykluczenia wpływu innych, względnie przypadkowych i nieistotnych czynników , których działanie może ukryć lub zakłócić przebieg badanych relacji. Na przykład, opierając się na zwykłym postrzeganiu otaczającego świata, można zauważyć, że cięższe ciało spada na powierzchnię Ziemi szybciej niż lżejsze. Dzieje się tak, ponieważ powietrze atmosferyczne uniemożliwia ruch ciał. Nie wiedząc o tym, na podstawie samego doświadczenia zwykłej obserwacji, po uprzednim uogólnieniu, można dojść do „odkrycia” zależności, która w rzeczywistości nie istnieje: stwierdzenia, że ​​prędkość spadania ciała zawsze zależy od ich masa. W rzeczywistości nie ma takiego związku jako stałej zależności, ponieważ masę Ziemi można uznać za nieskończenie dużą wartość w porównaniu z masą dowolnego obiektu, który jesteśmy w stanie na nią zrzucić. Z tego powodu szybkość opadania każdego upuszczonego ciała zależy tylko od masy Ziemi. Ale jak to udowodnić? Galileusz, z którego imieniem zwyczajowo kojarzy się początek zastosowania eksperymentu jako metody poznania naukowego, zrobił to w następujący sposób. Zrzucił jednocześnie dwa obiekty z wysokości 60 m (Krzywa Wieża w Pizie): pocisk z muszkietu (200 gr.) I kulę armatnią (80 kg). Ponieważ oba obiekty spadły na Ziemię w tym samym czasie, Galileusz doszedł do wniosku, że hipoteza, zgodnie z którą prędkość spadającego ciała jest zawsze związana z jego masą, jest błędna.

Przykładem jest doświadczenie Galileo bezpośredni eksperyment, aby przetestować (obalić) błędną teorię, zgodnie z którą prędkość spadania zawsze zależy od masy spadającego ciała. Zmieniając nieznacznie warunki początkowe w eksperymencie Galileusza, nie jest trudno zorganizować taki eksperyment, którego wyniki można interpretować jako potwierdzenie teorii grawitacji. Na przykład, jeśli weźmiemy wystarczająco dużą komorę, z której całe powietrze zostało wcześniej wywiezione, i umieścimy tam luźną kulkę waty i ołowianą kulkę, a następnie sprawimy, że wpadną do tej komory, to w rezultacie możemy zobaczyć że kula i bryła, mające istotnie różne parametry mas, pola powierzchni i gęstości, jednak w rozrzedzonym ośrodku (przy braku powietrza) opadną jednocześnie. Fakt ten można interpretować jako potwierdzenie teorii grawitacji.

Należy zauważyć, że nie we wszystkich przypadkach naukowcy mają dobre uzasadnienie teoretyczne dla badań eksperymentalnych. Specyfika eksperymentów eksploracyjnych polega na tym, że są one przeprowadzane w celu zebrania informacji empirycznych niezbędnych do zbudowania lub doprecyzowania jakiegoś założenia lub domysłu. . Ilustracyjnym przykładem tego typu badań mogą być eksperymenty Benjamina Rumforda dotyczące badania natury zjawisk termicznych. Przed powstaniem teorii kinetyki molekularnej ciepło uważano za rodzaj substancji materialnej. W szczególności wierzono, że nagrzewanie ciała wiąże się z dodaniem do niego tej substancji, którą nazwano kaloryczną. Specjaliści od skrawania metalu w czasach Rumfoorda doskonale zdawali sobie sprawę, że podczas wiercenia metalu wytwarzana jest duża ilość ciepła. W ramach teorii kaloryczności próbowali wyjaśnić ten fakt faktem, że podczas obróbki metalu kaloryczność jest od niego oddzielana i przechodzi w wióry metalowe, które powstają w wyniku wiercenia. Chociaż takie wyjaśnienie wydaje się nieprzekonujące, nic lepszego nie można było wówczas zaproponować.

Rumfoord oczywiście wiedział o fakcie silnego wytwarzania ciepła podczas wiercenia, ale aby to wyjaśnić wykonał następujący eksperyment. Wziął specjalnie tępe wiertło i użył go do zrobienia dziury. W rezultacie uwolniono jeszcze więcej ciepła niż w przypadku ostrego wiertła, ale wywiercono znacznie mniejszy otwór i powstało bardzo mało trocin. Na podstawie tego eksperymentu stwierdzono, że wzrost ciepła nie jest związany z powstawaniem trocin, do których, jak sądzono, przechodzi substancja kaloryczna. Przyczyną ciepła nie jest uwolnienie i przejście specjalnej materialnej substancji kalorycznej, ale ruch. W ten sposób eksperyment przeprowadzony przez Rumfoorda przyczynił się do zrozumienia, że ​​ciepło jest cechą określonego stanu materii, a nie czymś do niego dodanym.

Nie we wszystkich przypadkach eksperyment jest bezpośrednią interakcją z badanym obiektem. Bardzo często o wiele bardziej ekonomiczne jest prowadzenie badań na zredukowanych modelach tych obiektów. . W szczególności przykładami takich badań są eksperymenty mające na celu określenie charakterystyk aerodynamicznych płatowca (kadłuba) statku powietrznego lub badanie wielkości oporu wody występującego w danych formach kadłuba statku. Oczywistym jest, że prowadzenie takich badań na modelach odpowiednio w tunelu aerodynamicznym lub w basenie jest znacznie tańsze niż eksperymenty na rzeczywistych obiektach. Jednocześnie należy rozumieć, że zredukowany model nie jest dokładną kopią badanego obiektu, ponieważ efekty fizyczne, które pojawiają się podczas dmuchania lub przesuwania modelu, są nie tylko ilościowe, ale i jakościowe nie identyczne z tymi, które występują w przypadku obiektów pełnowymiarowych. Dlatego, aby dane uzyskane z eksperymentów modelowych można było wykorzystać w projektowaniu obiektów pełnowymiarowych, należy je przeliczyć z uwzględnieniem specjalnych współczynników.

W związku z rozpowszechnieniem się komputerów, eksperymenty z modele matematyczne badane obiekty. Warunkiem wstępnym modelowania matematycznego jest kwantyfikacja wszelkich istotnych właściwości badanych obiektów oraz praw, którym te obiekty podlegają. Początkowymi parametrami modelu matematycznego są właściwości rzeczywistych obiektów i systemów, które są tłumaczone na postać liczbową. Proces modelowania matematycznego polega na obliczeniu zmian, jakie zajdą w modelu w przypadku zmiany parametrów początkowych. Ze względu na to, że takich parametrów może być bardzo dużo, ich obliczenie wymaga sporego wysiłku. Zastosowanie komputerów pozwala zautomatyzować i znacznie przyspieszyć proces odpowiednich obliczeń. Oczywistymi zaletami modelowania matematycznego jest możliwość uzyskania (dzięki przetwarzaniu dużej liczby parametrów) szybkiej kalkulacji możliwych scenariuszy rozwoju symulowanych procesów. Dodatkowym efektem tego typu modelowania jest znaczna oszczędność kosztów, a także minimalizacja pozostałych kosztów. Na przykład przeprowadzanie obliczeń cech przebiegu reakcji jądrowych za pomocą komputera umożliwiło porzucenie prawdziwych testów broni jądrowej.

Najwyraźniejszy i najbardziej znany przykład eksperyment myślowy to „statek Galileusza”. W czasach Galileusza wierzono, że odpoczynek jest absolutny, a ruch jest tylko tymczasowym procesem przejścia z jednego stanu do drugiego pod wpływem jakiejś siły. Aby obalić to twierdzenie, Galileusz wyobraził sobie, co następuje. Niech człowiek, który znajduje się w zamkniętej ładowni jednostajnie poruszającego się statku, a zatem nic nie wie o tym, co dzieje się poza ładownią, spróbuje odpowiedzieć na pytanie: czy statek stoi nieruchomo, czy pływa? Zastanawiając się nad tym pytaniem, Galileusz doszedł do wniosku, że osoba w ładowni w danych warunkach nie może znaleźć prawidłowej odpowiedzi. A z tego wynika, że ​​ruch jednostajny jest nieodróżnialny od spoczynku, a zatem nie można twierdzić, że spoczynek jest jakby naturalnym, pierwotnym, a więc stanem odpowiadającym absolutnemu układowi odniesienia, a ruch jest tylko momentem odpoczynek, coś, czemu zawsze towarzyszy działanie jakiejkolwiek siły.

Oczywiście eksperyment myślowy Galileo nie jest trudny do wdrożenia w pełnej skali wydajności.

Badania eksperymentalne można prowadzić nie tylko w naukach przyrodniczych, ale także w naukach społecznych i humanistycznych. . Na przykład w psychologii, gdzie dane pozyskuje się na podstawie eksperymentów, które służą do uzasadnienia założeń, które na pierwszy rzut oka są dość trudne do zweryfikowania. Zwłaszcza przed badaniami specjalistycznymi, na poziomie codziennej percepcji, dorosły zdaje sobie sprawę, że jego psychika różni się od psychiki dziecka.

Pytanie brzmi, czym właściwie jest inaczej? Jeśli np. przy charakterystyce poziomu rozwoju umysłowego osoby dorosłej używa się takich pojęć, jak „osobowość” i „samoświadomość”, to czy można i w jakim sensie ich użyć do scharakteryzowania poziomu rozwoju umysłowego osoby dorosłej. dziecko? Na przykład w jakim wieku dana osoba ma już samoświadomość, a kiedy jeszcze nie istnieje? Na pierwszy rzut oka trudno tu powiedzieć coś konkretnego. Co więcej, same te pojęcia nie są zdefiniowane ściśle i jednoznacznie.

Mimo tych trudności psycholog Jean Piaget w swoich pracach dość przekonująco wykazał, że małe dziecko jest znacznie mniej zdolne do świadomej kontroli własnych procesów psychicznych niż dorosły. W wyniku szeregu badań Piaget doszedł do wniosku, że dzieci w wieku 7-8 lat są praktycznie niezdolne do introspekcji (bez której trudno mówić o samoświadomości w takim sensie, w jakim mają ją dorośli). Jego zdaniem umiejętność ta kształtuje się stopniowo w przedziale wiekowym od 7-8 do 11-12 lat. Piaget wyciągnął takie wnioski na podstawie serii eksperymentów, których treść sprowadzała się do tego, że najpierw dzieciom zaproponowano prosty problem arytmetyczny (z którym większość dzieci potrafi sobie poradzić), a następnie poprosił o dokładne wyjaśnienie, w jaki sposób doszli do odpowiedniego rozwiązania. Według Piageta obecność zdolności introspektywnej można uznać za istniejącą, jeśli dziecko potrafi przeprowadzić retrospekcję, tj. potrafi poprawnie odtworzyć proces własnej decyzji. Jeśli nie może tego zrobić i stara się wytłumaczyć decyzję, zaczynając np. od uzyskanego wyniku, tak jakby wiedział o tym z góry, to oznacza to, że dziecko nie ma zdolności introspekcji w tym sensie, że jest ona nieodłączna dla dorosłych .

Również w ramach ekonomii można w sposób sensowny mówić o badaniach eksperymentalnych. W szczególności, jeśli istnieje określona stawka podatkowa, według której dokonywane są płatności, ale jednocześnie niektórzy podatnicy starają się zaniżać lub ukrywać swoje dochody, to w ramach opisywanej sytuacji można podjąć działania, które można nazwać eksperymentalnymi. Załóżmy, że znając opisany stan rzeczy odpowiednie organy rządowe mogą podjąć decyzję o obniżeniu stawki podatku, zakładając, że w nowych warunkach dla znacznej części podatników bardziej opłaca się opłacać podatki niż je omijać, ryzykując kary i inne sankcje.

Po wprowadzeniu nowych stawek podatkowych konieczne jest porównanie wysokości pobieranych podatków z dotychczasowymi stawkami. Jeśli okaże się, że wzrosła liczba podatników, bo niektórzy zgodzili się wyjść z cienia na nowych warunkach, a łączna liczba opłat też wzrosła, to otrzymane informacje mogą być wykorzystane do usprawnienia pracy Organy podatkowe. Jeśli okaże się, że nie nastąpiły żadne zmiany w zachowaniach podatników, a łączna kwota pobranych podatków spadła, to informacja ta może być również wykorzystana w pracach odpowiednich organów, naturalnie motywując ich do poszukiwania innych rozwiązań.

Pomiar

Pomiar polega na znalezieniu stosunku między pewną ilością a inną, która jest traktowana jako jednostka miary. Wynik pomiaru wyrażany jest z reguły pewną liczbą, co umożliwia poddanie otrzymanych wyników obróbce matematycznej. Pomiar jest ważną metodą wiedzy naukowej, ponieważ można go wykorzystać do uzyskania dokładnych danych ilościowych na temat wielkości i intensywności i na tej podstawie nawet czasami wysuwaj założenia dotyczące natury odpowiednich procesów lub zjawisk.

Zmiana jako sposób określania wielkości i intensywności znajduje się już na poziomie codziennego postrzegania świata. W szczególności jako subiektywne doświadczenie „równości”, „większej” lub „mniejszej” wartości dowolnego zjawiska lub procesu w porównaniu z innymi przypadkami jego manifestacji. Na przykład światło może być postrzegane jako mniej lub bardziej jasne, a temperaturę można oceniać na podstawie odczuć takich jak „zimno”, „bardzo zimno”, „ciepło”, „gorąco”, „gorąco” itp. Oczywistą wadą tej metody określania intensywności jest jej subiektywność oraz przybliżenie . Jednak dla poziomu codziennego postrzegania świata taka „skala” może być wystarczająca, ale w ramach wiedzy naukowej takie przybliżenie jest poważnym problemem. I do tego stopnia, że ​​brak metod i praktyki dokładnych pomiarów może nawet stanowić jeden z poważnych czynników hamujących rozwój naukowo-techniczny.

Można zrozumieć znaczenie dokładnych pomiarów, jeśli na przykład wyobrazimy sobie zadania, jakie muszą rozwiązać projektanci i technolodzy przy tworzeniu złożonego urządzenia technicznego (na przykład silnika spalinowego). Aby silnik ten działał i nadal miał wystarczająco wysoką sprawność, konieczne jest, aby jego części - w szczególności tłoki i cylindry - były wykonane z dużą precyzją. I do tego stopnia, że ​​szczelina między ściankami cylindra a średnicą tłoka powinna mieścić się w granicach dziesiątych części milimetra. Z kolei do produkcji tych części silnika potrzebne są maszyny, które potrafią obrabiać metal z tak dużą precyzją. Jeżeli taka lub zbliżona dokładność nie może być osiągnięta za pomocą tego wyposażenia technicznego, to silnik albo w ogóle nie będzie pracował, albo jego sprawność będzie tak niska, że ​​jego użytkowanie nie będzie ekonomicznie opłacalne. To samo można powiedzieć o innych, nieco skomplikowanych urządzeniach technicznych.

Ujęcie ilościowe relacje między pewnymi zjawiskami, które osiąga się poprzez ich wyrażenie w dokładnej formie ilościowej (to ostatnie przejawia się w ścisłym formułowaniu odpowiednich praw natury poprzez użycie formuł matematycznych) - to nie tylko osobliwa forma zapisu danych, ale szczególny sposób wyrażania wiedzy, który jednocześnie ma bardzo konkretną wartość heurystyczną . W szczególności wyrażenie w tej postaci znanego prawa powszechnego ciążenia, zgodnie z którym między dowolnymi dwoma ciałami działa siła przyciągania proporcjonalna do iloczynu ich mas i odwrotnie proporcjonalna do kwadratu odległości między nimi, jest cenne nie tylko jako „dokładna wiedza”, którą można przedstawić w postaci zwartej formuły. Wartość heurystyczna tej i innych formuł polega na tym, że korzystając z tej formy reprezentacji wiedzy, można wykonać dokładne obliczenia dla konkretnej sytuacji, podstawiając do formuły określone wartości. Na podstawie odpowiednich obliczeń można stworzyć np. samolot lub rakietę, która może wzbić się w powietrze i nie spaść, wylecieć poza granice grawitacji i osiągnąć zamierzony cel.

W odniesieniu do konkretnych zmień obiekty , to dla nauk przyrodniczych umiejętność przede wszystkim określania numeryczne charakterystyki przestrzeni i czasu : wielkość, odległość między obiektami i czas trwania odpowiednich procesów.

Pomiar odległości między dwoma obiektami oznacza porównanie jej ze standardem. Do niedawna, jak standard ciało wykonane z twardy stop , którego kształt zmieniał się nieznacznie wraz ze zmieniającymi się warunkami zewnętrznymi. Jako jednostkę długości wybrano metr - segment porównywalny z wielkością ludzkiego ciała. W większości przypadków norma ta nie pasuje do liczby całkowitej liczby razy na długości mierzonego segmentu. Dlatego pozostała długość jest mierzona za pomocą 1/10, 1/100, 1/1000 itd. części normy. W praktyce wielokrotny podział pierwotnego standardu jest niemożliwy. Dlatego, aby poprawić dokładność pomiaru i pomiaru małych segmentów, wymagany był wzorzec o znacznie mniejszych wymiarach, który jest obecnie stosowany jako stojący elektromagnetyczny fale o zasięgu optycznym .

W naturze występują obiekty, które są znacznie mniejsze niż długości fal z zakresu optycznego - to wiele cząsteczek, atomów, cząstek elementarnych. Przy ich pomiarze pojawia się fundamentalny problem: obiekty, których wymiary są mniejsze niż długość fali promieniowania widzialnego, przestają odbijać światło zgodnie z prawami optyki geometrycznej, a zatem przestają być postrzegane w postaci znajomych obrazów wizualnych. Aby oszacować wielkość tak małych obiektów, zamieniane jest światło przepływ dowolnych cząstek elementarnych . W tym przypadku wielkość obiektów szacowana jest z tzw. przekrojów rozpraszania, które są określane przez stosunek liczby cząstek, które zmieniły kierunek ruchu, do gęstości strumienia padającego. Najmniejsza znana obecnie odległość to charakterystyczny rozmiar cząstki elementarnej: 10 -15 m. Nie ma sensu mówić o mniejszych rozmiarach.

Przy pomiarach odległości znacznie przekraczających 1 m niewygodne jest również stosowanie odpowiedniego wzorca długości. Do pomiaru odległości porównywalnych z wielkością Ziemi stosuje się metody triangulacja oraz radar . Metoda triangulacji polega na tym, że znając wartości jednego boku trójkąta i dwóch sąsiadujących z nim kątów, można obliczyć wartości dwóch pozostałych boków. Istotą metody radarowej jest pomiar czasu opóźnienia sygnału odbitego, którego prędkość propagacji i czas odlotu są znane. Jednak przy bardzo dużych odległościach, na przykład do pomiaru odległości do innych galaktyk, metody te nie mają zastosowania, ponieważ odbity sygnał jest zbyt słaby, a kąty, pod jakimi obiekt jest widziany, okazują się praktycznie niemierzalne. Tylko na bardzo duże odległości samoświetlne przedmioty (gwiazdy i ich gromady). Odległość do nich jest szacowana na podstawie obserwowanej jasności. Obecnie obserwowalna część Wszechświata ma wymiary 10 24 m. Nie ma sensu mówić o dużych wymiarach.

Mierzenie czasu trwania procesu oznacza porównywanie go ze standardem. Jako taki standard wygodnie jest wybrać dowolny powtarzający się proces i na przykład huśtawki wahadłowe . Jako jednostkę miary czasu wybrano drugi - odstęp w przybliżeniu równy okresowi skurczu mięśnia sercowego człowieka. Aby zmierzyć znacznie krótsze okresy czasu, potrzebne były nowe standardy. W ich roli byli drgania sieci oraz ruch elektronów w atomie . Nawet krótsze okresy czasu można zmierzyć, porównując je z czasem potrzebnym na przebycie światła przez dany interwał. Dlatego najmniejszym znaczącym odstępem czasu jest czas, w którym światło przebyło minimalną możliwą odległość.

Za pomocą zegarów wahadłowych można mierzyć odstępy czasu znacznie przekraczające 1 sekundę, ale i tutaj możliwości metody nie są nieograniczone. Okresy czasu w porównaniu z wiekiem Ziemi (10 17 sek.) są zwykle szacowane na podstawie okresu połowicznego rozpadu atomów pierwiastków promieniotwórczych. Zgodnie ze współczesnymi koncepcjami, maksymalny okres czasu, o którym warto mówić, to wiek Wszechświata, który szacuje się na 10 18 sekund. (dla porownania: życie człowieka trwa około 10 9 sek.).

Opisane sposoby zmiany przestrzeni i czasu oraz dokładność, jaką w tym osiągnięto, mają ogromne znaczenie teoretyczne i praktyczne. W szczególności ekstrapolacja wstecz w czasie obserwowanej i dokładnie zmierzonej ekspansji Wszechświata jest jednym z ważnych faktów przemawiających na korzyść teorii Wielkiego Wybuchu. Dzięki możliwości dokładnych pomiarów uzyskano dane o ruchu kontynentów Ziemi względem siebie o wartość w przybliżeniu równą kilku centymetrom rocznie, co ma znaczenie dla geologii.

Ogromne znaczenie ma umiejętność dokonywania precyzyjnych zmian. Dane, które można uzyskać w wyniku takiej zmiany, często stanowią istotny argument przemawiający za przyjęciem lub odrzuceniem hipotezy. Na przykład pomiar O. Römera w XVII wieku. prędkość światła była ważnym argumentem przemawiającym za uznaniem, że ta ostatnia jest naturalnym procesem fizycznym, a nie czymś innym, niematerialnym, którego prędkość jest „nieskończona”, jak wielu uważało w tamtych i późniejszych czasach. Możliwość dokładnego pomiaru okresu przejścia wiązki światła w różnych kierunkach za pomocą specjalnie zaprojektowanego instrumentu (eksperyment Michelsona-Morleya w 1880 r.) była ważnym czynnikiem, który w dużej mierze przyczynił się do odrzucenia teorii eteru w fizyce.

Pomiar jako metoda poznania naukowego ma ogromne znaczenie nie tylko w naukach przyrodniczych i technicznych, ale także w sferze wiedzy społecznej i humanitarnej. Każdy wie z własnego doświadczenia, że ​​sensowny materiał zapamiętuje się szybciej niż bezsensowny materiał. Jednak ile? Psycholog Herman Ebbinghaus odkrył, że znaczący materiał zapamiętuje się 9 razy szybciej niż materiał bezsensowny. Obecnie w ramach psychologii stosowanej szeroko stosuje się pomiary do oceny zdolności umysłowych człowieka.

Socjolog Emile Durkheim, na podstawie analizy danych statystycznych dotyczących liczby samobójstw w różnych krajach europejskich, ustalił korelację między tym faktem a stopniem integracji osób z poszczególnych grup społecznych. Znajomość ludności danego kraju, dynamika umieralności i płodności to ważne statystyki dla wielu stosowanych nauk społecznych.

Rola pomiarów i danych statystycznych jest również wielka dla współczesnej nauki ekonomicznej, zwłaszcza w związku z powszechnym w niej wykorzystaniem metod matematycznych. Na przykład numeryczne rozliczanie podaży i popytu jest ważne w dziedzinie badań marketingowych.

Takie empiryczne metody poznania, jak obserwacja, eksperyment i pomiar, odgrywają ogromną rolę we współczesnej wiedzy naukowej, a ich zastosowanie jest nierozerwalnie związane z odpowiadającymi im teoretycznymi ideami naukowymi. To właśnie odróżnia je od zwykłych empirycznych sposobów poznawania świata. Metody empiryczne mają znaczenie na wszystkich etapach naukowej wiedzy o świecie, ponieważ uzyskany za ich pośrednictwem materiał służy zarówno do potwierdzania, jak i obalania odpowiednich idei teoretycznych, a także jest brany pod uwagę przy ich formułowaniu.

Jedną z zasadniczych cech, która wiąże się z obecnym etapem rozwoju naukowych empirycznych metod poznania, jest to, że do uzyskania i weryfikacji odpowiednich wyników potrzebny jest niezwykle złożony i kosztowny sprzęt. Podobno można powiedzieć, że dalszy rozwój nauki przyrodnicze i techniczne są w dużej mierze zdeterminowane umiejętnością i umiejętnością tworzenia tego sprzętu . Przykładowo, współczesne badania z zakresu fizyki fundamentalnej są tak drogie, że tylko niektóre kraje są w stanie je przeprowadzić, które dysponują specjalistami odpowiedniego poziomu i środkami finansowymi, aby w szczególności uczestniczyć w budowie i eksploatacji takiego skomplikowany instrument do badań eksperymentalnych, taki jak niedawno wpisany do budowy Wielki Zderzacz Hadronów.

W wiedzy wyróżnia się dwa poziomy: empiryczny i teoretyczny.

Empiryczny (od Gr. Emreiria - doświadczenie) poziom wiedzy - jest to wiedza uzyskana bezpośrednio z doświadczenia z pewnym racjonalnym przetwarzaniem właściwości i relacji obiektu jest znana. Jest to zawsze podstawa, podstawa teoretycznego poziomu wiedzy.

Poziom teoretyczny to wiedza zdobyta poprzez abstrakcyjne myślenie.

Człowiek rozpoczyna proces poznawania przedmiotu od jego zewnętrznego opisu, ustala jego indywidualne właściwości, strony. Następnie zagłębia się w treść przedmiotu, odsłania prawa, którym podlega, przystępuje do wyjaśniania właściwości przedmiotu, łączy wiedzę o poszczególnych aspektach przedmiotu w jeden, całościowy system, a wynikający z tego głęboko wszechstronny konkretna wiedza na ten temat to teoria, która ma pewną wewnętrzną strukturę logiczną.

Należy odróżnić pojęcia „zmysłowe” i „racjonalne” od pojęć „empirycznych” i „teoretycznych”. „Zmysłowa” i „racjonalna” charakteryzują dialektykę procesu refleksji w ogóle, podczas gdy „empiryczna” i „teoretyczna” należą wyłącznie do sfery wiedzy naukowej.

Wiedza empiryczna powstaje w procesie interakcji z przedmiotem badań, kiedy bezpośrednio na niego wpływamy, wchodzimy z nim w interakcję, przetwarzamy wyniki i wyciągamy wnioski. Jednak uzyskanie indywidualnych faktów empirycznych i praw nie pozwala jeszcze na skonstruowanie systemu praw. Aby poznać istotę, należy przejść na teoretyczny poziom wiedzy naukowej.

Empiryczne i teoretyczne poziomy wiedzy są zawsze ze sobą nierozerwalnie związane i wzajemnie się warunkują. Zatem badania empiryczne, ujawniając nowe fakty, nowe dane obserwacyjne i eksperymentalne, stymulują rozwój poziomu teoretycznego, stawiają przed nim nowe problemy i zadania. Z kolei badania teoretyczne, rozważając i konkretyzując teoretyczną treść nauki, otwierają nowe perspektywy wyjaśniania i przewidywania faktów, a tym samym ukierunkowują i ukierunkowują wiedzę empiryczną. Wiedza empiryczna jest zapośredniczona wiedzą teoretyczną - wiedza teoretyczna wskazuje dokładnie, jakie zjawiska i zdarzenia powinny być przedmiotem badań empirycznych iw jakich warunkach eksperyment powinien być przeprowadzony. Teoretycznie okazuje się również i wskazuje granice, w których wyniki na poziomie empirycznym są prawdziwe, w których wiedza empiryczna może być wykorzystana w praktyce. Na tym właśnie polega heurystyczna funkcja teoretycznego poziomu wiedzy naukowej.

Granica między poziomem empirycznym a teoretycznym jest raczej arbitralna, ich niezależność względem siebie jest względna. Empiryczne przechodzi w teoretyczne, a to, co kiedyś było teoretyczne, na kolejnym, wyższym etapie rozwoju, staje się dostępne empirycznie. W każdej sferze wiedzy naukowej, na wszystkich poziomach, istnieje dialektyczna jedność tego, co teoretyczne i empiryczne. Wiodąca rola w tej jedności zależności od przedmiotu, uwarunkowań i już istniejących, uzyskanych wyników naukowych należy albo do empirycznej, albo teoretycznej. Podstawą jedności empirycznego i teoretycznego poziomu wiedzy naukowej jest jedność teorii naukowej i praktyki badawczej.

Podstawowe metody wiedzy naukowej

Każdy poziom wiedzy naukowej ma swoje własne metody. Tak więc na poziomie empirycznym stosuje się takie podstawowe metody jak obserwacja, eksperyment, opis, pomiar, modelowanie. Teoretycznie - analiza, synteza, abstrakcja, uogólnianie, indukcja, dedukcja, idealizacja, metody historyczne i logiczne i tym podobne.

Obserwacja to systematyczne i celowe postrzeganie obiektów i zjawisk, ich właściwości i relacji w warunkach naturalnych lub w warunkach eksperymentalnych w celu zrozumienia badanego obiektu.

Główne funkcje monitorowania to:

Utrwalanie i rejestracja faktów;

Wstępna klasyfikacja faktów już zarejestrowanych na podstawie pewnych zasad sformułowanych na podstawie istniejących teorii;

Porównanie zarejestrowanych faktów.

Wraz z komplikacją wiedzy naukowej cel, plan, wytyczne teoretyczne i zrozumienie wyników nabierają coraz większego znaczenia. W efekcie wzrasta rola myślenia teoretycznego w obserwacji.

Szczególnie trudno to zaobserwować nauki społeczne, gdzie jej wyniki w dużej mierze zależą od światopoglądu i postaw metodologicznych obserwatora, jego stosunku do obiektu.

Metoda obserwacji jest ograniczona metodą, gdyż za jej pomocą można tylko ustalić pewne właściwości i powiązania obiektu, ale nie da się ujawnić ich istoty, charakteru, kierunków rozwoju. Kompleksowa obserwacja obiektu to podstawa eksperymentu.

Eksperyment to badanie dowolnych zjawisk poprzez aktywne wpływanie na nie poprzez tworzenie nowych warunków odpowiadających celom badania lub zmianę przebiegu procesu w określonym kierunku.

W przeciwieństwie do prostej obserwacji, która nie wiąże się z aktywnym oddziaływaniem na obiekt, eksperyment jest aktywną ingerencją badacza w zjawiska przyrodnicze, w przebieg badanych procesów. Eksperyment to rodzaj praktyki, w której praktyczne działanie jest organicznie połączone z teoretyczną pracą myśli.

Znaczenie eksperymentu polega nie tylko na tym, że z jego pomocą nauka wyjaśnia zjawiska świata materialnego, ale także na tym, że nauka, opierając się na doświadczeniu, bezpośrednio opanowuje jedno lub drugie z badanych zjawisk. Dlatego eksperyment służy jako jeden z głównych środków komunikacji między nauką a produkcją. W końcu pozwala zweryfikować poprawność naukowych wniosków i odkryć, nowych wzorców. Eksperyment służy jako środek do badań i wynalezienia nowych urządzeń, maszyn, materiałów i procesów w produkcji przemysłowej, niezbędny etap praktycznego testowania nowych odkryć naukowych i technicznych.

Eksperyment znajduje szerokie zastosowanie nie tylko w naukach przyrodniczych, ale także w praktyce społecznej, gdzie odgrywa ważną rolę w poznawaniu i zarządzaniu procesami społecznymi.

Eksperyment ma swoje specyficzne cechy w porównaniu z innymi metodami:

Eksperyment umożliwia badanie obiektów w tzw. czystej postaci;

Eksperyment pozwala badać właściwości obiektów w ekstremalnych warunkach, co przyczynia się do głębszego wnikania w ich istotę;

Niewątpliwą zaletą eksperymentu jest jego powtarzalność, dzięki czemu metoda ta nabiera szczególnego znaczenia i wartości w wiedzy naukowej.

Opis jest wskazaniem cech przedmiotu lub zjawiska, zarówno istotnych, jak i nieistotnych. Opis z reguły stosuje się do pojedynczych, pojedynczych obiektów w celu pełniejszego zapoznania się z nimi. Jego celem jest podanie jak najpełniejszych informacji o obiekcie.

Pomiar to specyficzny system ustalania i rejestrowania cech ilościowych badanego obiektu za pomocą różnych przyrządów i aparatury pomiarowej. Za pomocą pomiaru określa się stosunek jednej cechy ilościowej obiektu do drugiej, jednorodnej z nią, przyjmowanej jako jednostka miary. Głównymi funkcjami metody pomiarowej są, po pierwsze, ustalenie ilościowej charakterystyki obiektu; po drugie, klasyfikacja i porównanie wyników pomiarów.

Modelowanie to badanie przedmiotu (oryginału) poprzez tworzenie i badanie jego kopii (modelu), która swoimi właściwościami w pewnym stopniu odtwarza właściwości badanego przedmiotu.

Modelowanie stosuje się, gdy bezpośrednie badanie obiektów z jakiegoś powodu jest niemożliwe, trudne lub niepraktyczne. Istnieją dwa główne typy modelowania: fizyczne i matematyczne. Na obecnym etapie rozwoju wiedzy naukowej szczególnie dużą rolę przywiązuje się do modelowania komputerowego. Komputer działający według specjalnego programu jest w stanie symulować najbardziej rzeczywiste procesy: wahania cen rynkowych, orbity statków kosmicznych, procesy demograficzne i inne ilościowe parametry rozwoju przyrody, społeczeństwa i jednostki.

Metody teoretycznego poziomu wiedzy.

Analiza to podział obiektu na części składowe (boki, cechy, właściwości, relacje) w celu ich wszechstronnego zbadania.

Synteza to połączenie wcześniej zidentyfikowanych części (boków, cech, właściwości, relacji) obiektu w jedną całość.

Analiza i synteza to dialektycznie sprzeczne i współzależne metody poznania. Poznanie przedmiotu w jego konkretnej całości zakłada wstępny podział go na składniki i rozważenie każdego z nich. To zadanie jest wykonywane przez analizę. Umożliwia wyodrębnienie tego, co istotne, co stanowi podstawę połączenia wszystkich aspektów badanego obiektu. Oznacza to, że analiza dialektyczna jest środkiem wnikania w istotę rzeczy. Ale, odgrywając ważną rolę w poznaniu, analiza nie dostarcza poznania konkretu, poznania przedmiotu jako jedności rozmaitości, jedności różnych definicji. Zadanie to wykonuje się poprzez syntezę. Analiza i synteza są więc organicznie powiązane i wzajemnie się warunkują na każdym etapie procesu poznania teoretycznego.

Abstrakcja to metoda abstrahowania od pewnych właściwości i relacji przedmiotu z jednoczesnym skupieniem się na tych, które są bezpośrednim przedmiotem badań naukowych. Abstrakcja przyczynia się do wnikania wiedzy w istotę zjawisk, przemieszczania się wiedzy od zjawiska do istoty. Widać wyraźnie, że abstrakcja rozczłonkowuje, zgrubia, schematyzuje integralną mobilną rzeczywistość. Jednak właśnie to pozwala na głębsze badanie poszczególnych aspektów tematu „w jego najczystszej postaci”. A to oznacza zagłębienie się w ich istotę.

Generalizacja to metoda poznania naukowego, która wychwytuje ogólne cechy i właściwości pewnej grupy obiektów, dokonuje przejścia od jednostkowego do szczególnego i ogólnego, od mniej ogólnego do bardziej ogólnego.

W procesie poznania często konieczne jest, opierając się na istniejącej wiedzy, wyciąganie wniosków będących nową wiedzą o nieznanym. Odbywa się to za pomocą metod takich jak indukcja i odliczenie.

Indukcja jest taką metodą poznania naukowego, kiedy na podstawie wiedzy o jednostce wyciąga się wniosek na temat ogółu. Jest to sposób rozumowania, za pomocą którego ustala się słuszność wysuniętego założenia lub hipotezy. W poznaniu realnym indukcja zawsze działa w jedności z dedukcją, jest z nią organicznie związana.

Dedukcja jest metodą poznania, gdy na podstawie ogólna zasada w logiczny sposób, z pewnych twierdzeń jako prawdziwych, z konieczności wywodzi się nowa prawdziwa wiedza o jednostce. Za pomocą tej metody jednostka jest poznawana na podstawie znajomości praw ogólnych.

Idealizacja to metoda logicznego modelowania, dzięki której tworzone są wyidealizowane obiekty. Idealizacja ma na celu procesy możliwej do wyobrażenia konstrukcji możliwych obiektów. Wyniki idealizacji nie są arbitralne. W granicznym przypadku odpowiadają one poszczególnym właściwościom rzeczywistym obiektów lub umożliwiają ich interpretację w oparciu o dane empirycznego poziomu wiedzy naukowej. Idealizacja wiąże się z „eksperymentem myślowym”, w wyniku którego z hipotetycznego minimum niektórych znaków zachowania obiektów odkrywa się lub uogólnia prawa ich funkcjonowania. Granice skuteczności idealizacji wyznacza praktyka.

Metody historyczne i logiczne są organicznie powiązane. Metoda historyczna polega na rozważeniu obiektywnego procesu rozwoju obiektu, jego prawdziwej historii ze wszystkimi jej zakrętami i zakrętami. Jest to pewien sposób odtwarzania w myśleniu procesu historycznego w jego chronologicznej kolejności i konkretności.

Metoda logiczna to sposób, w jaki mentalnie odtwarza rzeczywistość proces historyczny w formie teoretycznej, w systemie pojęć.

Zadaniem badań historycznych jest ujawnienie specyficznych warunków rozwoju pewnych zjawisk. Zadaniem badań logicznych jest ujawnienie roli, jaką poszczególne elementy systemu odgrywają w rozwoju całości.

CECHY WIEDZY NAUKOWEJ. EMPIRYCZNY I TEORETYCZNY POZIOM WIEDZY NAUKOWEJ.

Najbardziej widoczna aktywność poznawcza człowieka przejawia się w wiedzy naukowej, ponieważ. To właśnie nauka, w stosunku do innych form świadomości społecznej, ma na celu przede wszystkim poznawcze przyswojenie rzeczywistości. Znajduje to odzwierciedlenie w funkcjach wiedza naukowa.

Znakiem rozpoznawczym wiedzy naukowej jest jej racjonalność- odwołanie się do argumentów rozumu i rozumu. Wiedza naukowa buduje świat w pojęciach. Myślenie naukowe jest przede wszystkim działaniem konceptualnym, podczas gdy w sztuce np. obraz artystyczny jest formą opanowania świata.

Kolejna funkcja- orientacja na ujawnienie obiektywnych praw funkcjonowania i rozwoju badanych obiektów. Wynika z tego, że nauka dąży do celu i cel znajomość rzeczywistości. Skoro jednak wiadomo, że każda wiedza (w tym naukowa) jest stopem obiektywnej i subiektywnej, należy zwrócić uwagę na specyfikę obiektywności wiedzy naukowej. Polega na maksymalnym wyeliminowaniu (usunięcie, wyrzucenie) podmiotu podmiotowego z wiedzy.

Nauka ma na celu odkrywanie i rozwój przyszłe drogi i formy praktycznego rozwoju świata, nie tylko dzisiaj. Tym różni się na przykład od zwykłej wiedzy spontaniczno-empirycznej. W każdym razie między odkryciem naukowym a jego zastosowaniem w praktyce mogą minąć dziesięciolecia, ale ostatecznie osiągnięcia teoretyczne tworzą podstawę dla przyszłych osiągnięć inżynierii stosowanej w celu zaspokojenia praktycznych zainteresowań.

wiedza naukowa opiera się na specjalistycznych narzędziach badawczych, które wpływają na badany obiekt i pozwalają zidentyfikować jego możliwe stany w warunkach kontrolowanych przez podmiot. Specjalistyczna aparatura naukowa umożliwia nauce eksperymentalne badanie nowych typów obiektów.

Najważniejszymi cechami wiedzy naukowej są jej dowody, ważność i spójność.

Specyfika systematyczności nauki - w jego dwupoziomowej organizacji: poziomie empirycznym i teoretycznym oraz kolejności ich interakcji. Na tym polega wyjątkowość wiedzy i wiedzy naukowej, ponieważ żadna inna forma wiedzy nie ma organizacji dwupoziomowej.

Wśród charakterystycznych cech nauki jest jej specjalna metodologia. Wraz z wiedzą o przedmiotach nauka tworzy wiedzę o metodach działalności naukowej. Prowadzi to do powstania metodologii jako specjalnej gałęzi badań naukowych, mającej na celu ukierunkowanie badań naukowych.

Nauka klasyczna, która powstała w XVI-XVII wieku, łączyła teorię z eksperymentem, podkreślając dwa poziomy nauki: empiryczny i teoretyczny. Odpowiadają one dwóm powiązanym, a jednocześnie specyficznym typom naukowym - aktywność poznawcza: studium empiryczne i teoretyczne.

Jak wspomniano powyżej, wiedza naukowa jest zorganizowana na dwóch poziomach: empirycznym i teoretycznym.

Do poziom empiryczny obejmują techniki i metody, a także formy wiedzy naukowej, które są bezpośrednio związane z praktyką naukową, z tymi rodzajami działań obiektywnych, które zapewniają gromadzenie, utrwalanie, grupowanie i uogólnianie materiału źródłowego do konstrukcji pośredniej wiedzy teoretycznej. Obejmuje to obserwację naukową, różne formy eksperymentu naukowego, fakty naukowe i sposoby ich grupowania: systematyzację, analizę i uogólnianie.

Do poziom teoretyczny obejmują wszystkie te rodzaje i metody wiedzy naukowej oraz metody organizowania wiedzy, które charakteryzują się różnym stopniem mediacji i zapewniają tworzenie, konstruowanie i rozwój teorii naukowej jako logicznie zorganizowanej wiedzy o obiektywnych prawach i innych istotnych powiązaniach i relacjach w celu świat. Obejmuje to teorię oraz jej elementy i komponenty, takie jak abstrakcje naukowe, idealizacje, modele, prawa naukowe, idee i hipotezy naukowe, metody operowania abstrakcjami naukowymi (dedukcja, synteza, abstrakcja, idealizacja, środki logiczne i matematyczne itp.).

Należy podkreślić, że choć różnica między poziomem empirycznym a teoretycznym wynika z obiektywnych jakościowych różnic w treści i metodach działalności naukowej, a także w samej naturze wiedzy, to jednak różnica ta ma również charakter względny. Żadna forma działalności empirycznej nie jest możliwa bez jej teoretycznego zrozumienia i odwrotnie, każda teoria, bez względu na to, jak bardzo by była abstrakcyjna, ostatecznie opiera się na praktyce naukowej, na danych empirycznych.

Obserwacja i eksperyment to jedne z głównych form wiedzy empirycznej. Obserwacja istnieje celowe, zorganizowane postrzeganie przedmiotów i zjawisk świata zewnętrznego. Obserwacja naukowa charakteryzuje się celowością, regularnością i organizacją.

Eksperyment różni się od obserwacji aktywnym charakterem, ingerencją w naturalny bieg wydarzeń. Eksperyment to rodzaj działania podejmowanego w celu poznania naukowego, polegający na oddziaływaniu na obiekt naukowy (proces) za pomocą specjalnych urządzeń. Dzięki temu możliwe jest:

- izolować badany obiekt od wpływu ubocznych, nieistotnych zjawisk;

– wielokrotnie odtwarzać przebieg procesu w ściśle ustalonych warunkach;

- systematycznie studiuj, łącz różne warunki w celu uzyskania pożądanego rezultatu.

Eksperyment jest zawsze środkiem do rozwiązania pewnego zadania poznawczego lub problemu. Istnieje wiele rodzajów eksperymentów: fizyczne, biologiczne, bezpośrednie, modelowe, poszukiwawcze, weryfikacyjne itp.

Charakter form poziomu empirycznego determinuje metody badawcze. Pomiar, jako jeden z rodzajów metod badań ilościowych, ma zatem na celu jak najpełniejsze odzwierciedlenie obiektywnych danych w wiedzy naukowej. relacje ilościowe wyrażone w liczbie i wielkości.

Ogromne znaczenie ma systematyzacja faktów naukowych. fakt naukowy - to nie byle jakie wydarzenie, ale wydarzenie, które weszło w sferę wiedzy naukowej i zostało zarejestrowane poprzez obserwację lub eksperyment. Systematyzacja faktów oznacza proces ich grupowania na podstawie istotnych właściwości. Jedną z najważniejszych metod uogólniania i systematyzacji faktów jest indukcja.

wprowadzenie zdefiniowana jako metoda zdobywania wiedzy probabilistycznej. Indukcja może być intuicyjna – proste przypuszczenie, odkrycie wspólnego w trakcie obserwacji. Indukcja może działać jako procedura ustanawiania generała przez wyliczanie poszczególnych przypadków. Jeśli liczba takich przypadków jest ograniczona, nazywa się to całkowitym.



Rozumowanie przez analogię należy również do liczby wniosków indukcyjnych, ponieważ charakteryzują się prawdopodobieństwem. Zwykle przez analogię rozumie się: szczególny przypadek podobieństwo zjawisk, które polega na podobieństwie lub identyczności relacji między elementami różnych systemów. Aby przez analogię zwiększyć stopień prawdopodobieństwa wniosków, konieczne jest zwiększenie różnorodności i uzyskanie jednorodności porównywanych właściwości, aby zmaksymalizować liczbę porównywanych cech. Tak więc, poprzez ustalenie podobieństwa między zjawiskami, w istocie dokonuje się przejścia od indukcji do innej metody - dedukcji.

Odliczenie różni się od indukcji tym, że jest związana ze zdaniami wynikającymi z praw i reguł logiki, ale prawdziwość przesłanek jest problematyczna, podczas gdy indukcja opiera się na prawdziwych przesłankach,

Problemem pozostaje jednak przejście do propozycji-wniosków. Dlatego w wiedzy naukowej, dla uzasadnienia zapisów, metody te wzajemnie się uzupełniają.

Droga przejścia od wiedzy empirycznej do teoretycznej jest bardzo skomplikowana. Ma charakter skoku dialektycznego, w którym przeplatają się różne i sprzeczne momenty, uzupełniając się nawzajem: myślenie abstrakcyjne i wrażliwość, indukcja i dedukcja, analiza i synteza itp. Kluczowym punktem tego przejścia jest hipoteza, jej zaawansowanie, sformułowanie i rozwinięcie, jej uzasadnienie i dowód.

Termin " hipoteza » jest używany w dwóch znaczeniach: 1) w wąskim znaczeniu - oznaczenie jakiegoś założenia o regularnym porządku lub innych znaczących powiązaniach i relacjach; 2) w szerokim znaczeniu - jako układ zdań, z których część jest wstępnymi założeniami o charakterze probabilistycznym, a część stanowi dedukcyjne rozmieszczenie tych przesłanek. W wyniku wszechstronnej weryfikacji i potwierdzenia wszystkich rozmaitych konsekwencji hipoteza przeradza się w teorię.

teoria taki system wiedzy nazywa się, dla którego prawdziwa ocena jest dość wyraźna i pozytywna. Teoria jest systemem obiektywnie prawdziwej wiedzy. Teoria różni się od hipotezy rzetelnością, a od innych rodzajów rzetelnej wiedzy (fakty, statystyki itp.) ściśle logiczną organizacją i treścią, która polega na odzwierciedleniu istoty zjawisk. Teoria to znajomość istoty. Przedmiot na poziomie teorii pojawia się w swoim wewnętrznym połączeniu i integralności jako system, którego struktura i zachowanie podlega pewnym prawom. Dzięki temu teoria wyjaśnia różnorodność dostępnych faktów i potrafi przewidywać nowe zdarzenia, co mówi o jej najważniejszych funkcjach: wyjaśniającej i predykcyjnej (funkcja foresightu). Teoria składa się z pojęć i stwierdzeń. Koncepcje ustalają cechy i relacje obiektów z obszaru tematycznego. Stwierdzenia odzwierciedlają regularny porządek, zachowanie i strukturę obszaru tematycznego. Cechą tej teorii jest to, że pojęcia i stwierdzenia są połączone w logicznie spójny, spójny system. Całość logicznych relacji między terminami i zdaniami teorii tworzy jej logiczną strukturę, która jest w zasadzie dedukcyjna. Teorie można klasyfikować według różnych cech i podstaw: według stopnia powiązania z rzeczywistością, według obszaru powstania, zastosowania itp.

Myślenie naukowe działa na wiele sposobów. Można wyróżnić takie np. jak analiza i synteza, abstrakcja i idealizacja, modelowanie. Analiza - jest to sposób myślenia związany z rozkładem badanego obiektu na jego części składowe, tendencje rozwojowe w celu ich względnie samodzielnego badania. Synteza- operacja odwrotna, polegająca na łączeniu wyróżnionych wcześniej części w całość w celu uzyskania całościowej wiedzy o wyróżnionych uprzednio częściach i trendach. abstrakcja zachodzi proces selekcji umysłowej, wyodrębniania poszczególnych interesujących cech, właściwości i zależności w procesie badawczym w celu ich lepszego zrozumienia.

W procesie idealizacji istnieje ostateczna abstrakcja od wszystkich rzeczywistych własności przedmiotu. Powstaje tak zwany obiekt idealny, na którym można operować podczas rozpoznawania obiektów rzeczywistych. Na przykład takie pojęcia jak „punkt”, „linia prosta”, „całkowicie czarne ciało” i inne. Tak więc pojęcie punktu materialnego w rzeczywistości nie odpowiada żadnemu przedmiotowi. Ale mechanik, operując tym idealnym obiektem, jest w stanie teoretycznie wyjaśnić i przewidzieć zachowanie rzeczywistych obiektów materialnych.

Literatura.

1. Alekseev P.V., Panin A.V. Filozofia. - M., 2000r. II, rozdz. XIII.

2. Filozofia / Wyd. W.W.Mironowa. - M., 2005r. V, rozdz. 2.

pytania testowe do autotestu.

1. Jakie jest główne zadanie epistemologii?

2. Jakie formy agnostycyzmu można zidentyfikować?

3. Jaka jest różnica między sensacją a racjonalizmem?

4. Co to jest „empiryzm”?

5. Jaka jest rola wrażliwości i myślenia w indywidualnej aktywności poznawczej?

6. Czym jest wiedza intuicyjna?

7. Podkreśl główne idee koncepcji aktywności wiedzy K. Marksa.

8. Jak przebiega związek między podmiotem a przedmiotem w procesie poznania?

9. Od czego zależy treść wiedzy?

10. Co to jest „prawda”? Jakie główne podejścia w epistemologii do definicji tego pojęcia możesz wymienić?

11. Jakie jest kryterium prawdy?

12. Wyjaśnij, jaka jest obiektywna natura prawdy?

13. Dlaczego prawda jest względna?

14. Czy możliwa jest prawda absolutna?

15. Jaka jest specyfika wiedzy naukowej i wiedzy naukowej?

16. Jakie można wyróżnić formy i metody empirycznego i teoretycznego poziomu wiedzy naukowej?

Teoretyczne metody poznania to tak zwane „zimny rozum”. Umysł zorientowany w badaniach teoretycznych. Dlaczego? Zapamiętaj słynne zdanie Sherlocka Holmesa: „I z tego miejsca proszę mów jak najwięcej szczegółów!” Na etapie tej frazy i późniejszej historii Helen Stoner słynny detektyw inicjuje etap wstępny - wiedzę zmysłową (empiryczną).

Nawiasem mówiąc, ten epizod daje nam podstawy do porównania dwóch stopni wiedzy: tylko pierwotnego (empirycznego) i pierwotnego wraz z wtórnym (teoretycznym). Conan Doyle robi to za pomocą wizerunków dwóch głównych bohaterów.

Jak emerytowany lekarz wojskowy Watson reaguje na historię dziewczyny? Zafiksowuje się na scenie emocjonalnej, z góry uznając, że historia niefortunnej pasierbicy jest spowodowana jej pozbawioną motywacji podejrzliwością wobec ojczyma.

Dwa etapy metody poznania

Ellen Holmes słucha zupełnie inaczej. Najpierw odbiera informacje werbalne ze słuchu. Uzyskana w ten sposób informacja empiryczna nie jest jednak dla niego produktem końcowym, potrzebuje ich jako surowca do późniejszej obróbki intelektualnej.

Umiejętnie wykorzystując teoretyczne metody poznania w przetwarzaniu każdego ziarnka otrzymanej informacji (z których żadna nie umknęła jego uwadze), klasyczny literacki charakter stara się rozwiązać zagadkę zbrodni. Ponadto z błyskotliwością stosuje metody teoretyczne, z analitycznym wyrafinowaniem, które fascynuje czytelników. Z ich pomocą następuje poszukiwanie wewnętrznych ukrytych powiązań i definiowanie tych wzorców, które rozwiązują sytuację.

Jaka jest natura teoretycznych metod poznania?

Celowo zwróciliśmy się do literacki przykład. Z jego pomocą mamy nadzieję, że nasza historia nie zaczęła się bezosobowo.

Należy uznać, że nauka na obecnym poziomie stała się głównym motorem postępu właśnie ze względu na swój „zestaw narzędzi” – metody badawcze. Wszystkie, jak już wspomnieliśmy, dzielą się na dwie duże grupy: empiryczną i teoretyczną. Cechą wspólną obu grup jest cel – prawdziwa wiedza. Różnią się podejściem do wiedzy. Jednocześnie naukowcy praktykujący metody empiryczne nazywani są praktykami, a teoretycy - teoretykami.

Zauważamy również, że często wyniki badań empirycznych i teoretycznych nie pokrywają się ze sobą. To jest powód istnienia dwóch grup metod.

Empiryczne (od greckiego słowa „empirios” – obserwacja) charakteryzują się celowym, zorganizowanym postrzeganiem, określonym zadaniem badawczym i obszarem tematycznym. W nich naukowcy stosują najlepsze formy utrwalania wyników.

Teoretyczny poziom poznania charakteryzuje się przetwarzaniem informacji empirycznych za pomocą technik formalizacji danych oraz określonych technik przetwarzania informacji.

Dla naukowca praktykującego teoretyczne metody poznania umiejętność twórczego posługiwania się narzędziem, którego domaga się metoda optymalna, ma ogromne znaczenie.

Metody empiryczne i teoretyczne mają wspólne cechy ogólne:

  • podstawowa rola różnych form myślenia: pojęć, teorii, praw;
  • dla każdej z metod teoretycznych źródłem podstawowych informacji jest wiedza empiryczna;
  • w przyszłości uzyskane dane podlegają przetwarzaniu analitycznemu przy użyciu specjalnego aparatu pojęciowego, przewidzianej dla nich technologii przetwarzania informacji;
  • celem, dzięki któremu stosuje się teoretyczne metody poznania, jest synteza wnioskowań i wniosków, rozwój pojęć i sądów, w wyniku których rodzi się nowa wiedza.

Tak więc w pierwotnym etapie procesu naukowiec otrzymuje informację sensoryczną za pomocą metod wiedzy empirycznej:

  • obserwacja (pasywne, bezingerencyjne śledzenie zjawisk i procesów);
  • eksperyment (ustalenie przejścia procesu w sztucznie zadanych warunkach początkowych);
  • pomiary (określenie stosunku wyznaczanego parametru do ogólnie przyjętej normy);
  • porównanie (skojarzeniowe postrzeganie jednego procesu w porównaniu z innym).

Teoria jako wynik wiedzy

Jaki rodzaj sprzężenia zwrotnego koordynuje metody teoretycznego i empirycznego poziomu poznania? Informacja zwrotna podczas testowania prawdziwości teorii. Na etapie teoretycznym, w oparciu o otrzymane informacje sensoryczne, formułowany jest kluczowy problem. Aby go rozwiązać, stawia się hipotezy. Te najbardziej optymalne i dopracowane rozwijają się w teorie.

Wiarygodność teorii jest sprawdzana przez jej zgodność z obiektywnymi faktami (dane poznania zmysłowego) i fakty naukowe(Wiedza jest rzetelna, wielokrotnie wcześniej weryfikowana pod kątem prawdziwości.) Dla takiej adekwatności ważny jest wybór optymalnej teoretycznej metody poznania. To on powinien zapewnić maksymalną zgodność badanego fragmentu z obiektywną rzeczywistością i analityczną prezentację jej wyników.

Koncepcje metody i teorii. Ich podobieństwa i różnice

Odpowiednio dobrane metody zapewniają „moment prawdy” w poznaniu: rozwinięcie hipotezy w teorię. Zaktualizowane ogólne naukowe metody poznania teoretycznego są wypełnione niezbędnymi faktami w rozwiniętej teorii poznania, stając się jej integralną częścią.

Jeśli jednak tak dobrze działającą metodę sztucznie wyodrębni się z gotowej, powszechnie uznanej teorii, to po rozpatrzeniu jej osobno stwierdzimy, że nabrała ona nowych właściwości.

Z jednej strony jest wypełniony wiedzą specjalistyczną (przyswajającą idee aktualnych badań), z drugiej zaś nabiera wspólnych cech gatunkowych stosunkowo jednorodnych przedmiotów badań. W tym wyraża się dialektyczny związek metody z teorią poznania naukowego.

Wspólność ich natury jest testowana pod kątem aktualności przez cały czas ich istnienia. Pierwsza z nich przejmuje funkcję regulacji organizacyjnej, nakazującej naukowcowi formalną kolejność manipulacji w celu osiągnięcia celów badania. Zaangażowane przez naukowca metody teoretycznego poziomu wiedzy wyprowadzają przedmiot badań poza ramy dotychczasowej teorii.

Różnica między metodą a teorią wyraża się w tym, że są to różne formy poznania wiedzy naukowej.

Jeśli druga wyraża istotę, prawa istnienia, warunki rozwoju, komunikacja wewnętrzna badanego obiektu, to pierwsza orientuje badacza, dyktując mu „mapę drogową wiedzy”: wymagania, zasady podmiotowego przekształcania i aktywności poznawczej.

Można powiedzieć inaczej: teoretyczne metody poznania naukowego adresowane są bezpośrednio do badacza, regulując w odpowiedni sposób jego proces myślowy, kierując procesem zdobywania przez niego nowej wiedzy w najbardziej racjonalnym kierunku.

Ich znaczenie w rozwoju nauki doprowadziło do powstania jej odrębnej gałęzi, opisującej narzędzia teoretyczne badacza, zwanej metodologią opartą na zasadach epistemologicznych (epistemologia jest nauką o wiedzy).

Lista teoretycznych metod poznania

Powszechnie wiadomo, że metody teoretyczne wiedza obejmuje następujące opcje:

  • modelowanie;
  • formalizowanie;
  • analiza;
  • synteza;
  • abstrakcja;
  • wprowadzenie;
  • odliczenie;
  • idealizacja.

Oczywiście kwalifikacje naukowca mają ogromne znaczenie w praktycznej skuteczności każdego z nich. Doświadczony specjalista, po przeanalizowaniu głównych metod wiedzy teoretycznej, wybierze tę właściwą z ich całości. To on odegra kluczową rolę w skuteczności samego poznania.

Przykład metody modelowania

W marcu 1945 r. pod auspicjami Laboratorium Balistycznego Sił Zbrojnych USA nakreślono zasady działania PC. Był to klasyczny przykład wiedzy naukowej. W badaniach brała udział grupa fizyków, wzmocniona przez słynnego matematyka Johna von Neumanna. Pochodzący z Węgier był głównym analitykiem tego badania.

Wspomniany naukowiec jako narzędzie badawcze wykorzystał metodę modelowania.

Początkowo wszystkie urządzenia przyszłego PC - arytmetyczno-logiczne, pamięciowe, sterujące, wejściowe i wyjściowe - istniały ustnie, w formie aksjomatów sformułowanych przez Neumanna.

Matematyk ubrał dane z empirycznych badań fizycznych w formie modelu matematycznego. W przyszłości to ona, a nie jej prototyp, została poddana badaniom naukowca. Otrzymawszy wynik, Neumann „przetłumaczył” go na język fizyki. Nawiasem mówiąc, proces myślenia zademonstrowany przez Węgra wywarł ogromne wrażenie na samych fizykach, o czym świadczą ich opinie.

Zwróć uwagę, że dokładniejsze byłoby nadanie tej metodzie nazwy „modelowanie i formalizacja”. Nie wystarczy stworzyć sam model, równie ważne jest sformalizowanie wewnętrznych relacji obiektu poprzez język kodowania. W końcu tak należy interpretować model komputerowy.

Dziś taka symulacja komputerowa, wykonywana za pomocą specjalnych programów matematycznych, jest dość powszechna. Jest szeroko stosowany w ekonomii, fizyce, biologii, motoryzacji, elektronice radiowej.

Nowoczesne modelowanie komputerowe

Metoda symulacji komputerowej obejmuje następujące etapy:

  • zdefiniowanie modelowanego obiektu, sformalizowanie instalacji do modelowania;
  • sporządzenie planu eksperymentów komputerowych z modelem;
  • analiza wyników.

Istnieją symulacje i modelowanie analityczne. Modelowanie i formalizacja są w tym przypadku narzędziem uniwersalnym.

Symulacja odzwierciedla funkcjonowanie systemu, gdy sekwencyjnie wykonuje ogromną liczbę podstawowych operacji. Modelowanie analityczne opisuje naturę obiektu za pomocą różnicowych systemów sterowania, które mają rozwiązanie, które odzwierciedla idealny stan obiektu.

Oprócz matematycznych rozróżniają również:

  • modelowanie pojęciowe (poprzez symbole, operacje między nimi a językami formalnymi lub naturalnymi);
  • modelowanie fizyczne (obiekt i model - prawdziwe przedmioty lub zjawisk)
  • konstrukcyjno-funkcjonalne (jako model wykorzystywane są wykresy, diagramy, tabele).

abstrakcja

Metoda abstrakcji pomaga zrozumieć istotę badanego zagadnienia i rozwiązać bardzo złożone problemy. Pozwala, odrzucając wszystko, co drugorzędne, skupić się na podstawowych szczegółach.

Na przykład, jeśli zwrócimy się do kinematyki, staje się oczywiste, że naukowcy stosują tę konkretną metodę. Tym samym pierwotnie identyfikowano go jako ruch pierwotny, prostoliniowy i jednostajny (poprzez taką abstrakcję można było wyodrębnić podstawowe parametry ruchu: czas, odległość, prędkość).

Ta metoda zawsze wiąże się z pewnym uogólnieniem.

Nawiasem mówiąc, przeciwna teoretyczna metoda poznania nazywa się konkretyzacją. Wykorzystując go do badania zmian prędkości, naukowcy opracowali definicję przyspieszenia.

Analogia

Metoda analogii służy do formułowania fundamentalnie nowych pomysłów poprzez znajdowanie analogów do zjawisk lub obiektów (w tym przypadku analogi to zarówno idealne, jak i rzeczywiste obiekty, które mają adekwatną korespondencję z badanymi zjawiskami lub obiektami).

Przykładem skutecznego wykorzystania analogii mogą być znane odkrycia. Karol Darwin, opierając się na ewolucyjnej koncepcji walki o środki utrzymania biednych z bogatymi, stworzył teorię ewolucyjną. Niels Bohr czerpiący ze struktury planetarnej Układ Słoneczny, uzasadnił koncepcję orbitalnej struktury atomu. J. Maxwell i F. Huygens stworzyli teorię falowych oscylacji elektromagnetycznych, wykorzystując jako analogię teorię falowych oscylacji mechanicznych.

Metoda analogii nabiera znaczenia, gdy spełnione są następujące warunki:

  • jak najwięcej podstawowych cech powinno być do siebie podobnych;
  • wystarczająco duża próbka znanych cech musi być faktycznie powiązana z nieznaną cechą;
  • analogii nie należy interpretować jako identycznego podobieństwa;
  • konieczne jest również rozważenie fundamentalnych różnic między przedmiotem badań a jego odpowiednikiem.

Zauważ, że ta metoda jest najczęściej i owocnie stosowana przez ekonomistów.

Analiza - synteza

Analiza i synteza znajdują zastosowanie zarówno w badaniach naukowych, jak i w zwykłej aktywności umysłowej.

Pierwszy to proces mentalnego (najczęściej) rozbijania badanego obiektu na jego składniki w celu pełniejszego zbadania każdego z nich. Jednak po etapie analizy następuje etap syntezy, w którym badane składniki łączy się ze sobą. W tym przypadku brane są pod uwagę wszystkie właściwości ujawnione podczas ich analizy, a następnie określane są ich relacje i metody powiązania.

Wiedza teoretyczna charakteryzuje się złożonym wykorzystaniem analizy i syntezy. Te właśnie metody, w ich jedności i opozycji, położył niemiecki filozof Hegel u podstaw dialektyki, która według jego słów jest „duszą wszelkiej wiedzy naukowej”.

Indukcja i odliczenie

Kiedy używany jest termin „metody analizy”, najczęściej chodzi o dedukcję i indukcję. To są metody logiczne.

Dedukcja obejmuje tok rozumowania, idący od ogółu do szczegółu. Pozwala to na wyodrębnienie pewnych konsekwencji z ogólnej treści hipotezy, które można uzasadnić empirycznie. Tak więc odliczenie charakteryzuje się ustanowieniem wspólnego połączenia.

Wspomniany przez nas na początku tego artykułu Sherlock Holmes bardzo wyraźnie uzasadnił swoją dedukcyjną metodę w opowiadaniu „Kraina Karmazynowych Chmur”: „Życie jest niekończącym się połączeniem przyczyn i skutków. Dlatego możemy to poznać, badając jeden link po drugim. Słynny detektyw zebrał jak najwięcej informacji, wybierając najistotniejszą z wielu wersji.

Kontynuując charakterystykę metod analizy, scharakteryzujmy indukcję. Jest to sformułowanie ogólnego wniosku z szeregu konkretnych (od szczegółowego do ogólnego). Rozróżnij indukcję pełną i niezupełną. Pełna indukcja charakteryzuje się rozwojem teorii, a niepełna - hipotezami. Hipoteza, jak wiadomo, powinna zostać zaktualizowana poprzez udowodnienie. Dopiero wtedy staje się teorią. Indukcja jako metoda analizy jest szeroko stosowana w filozofii, ekonomii, medycynie i prawoznawstwie.

Idealizacja

Często w teorii wiedzy naukowej stosuje się pojęcia idealne, które w rzeczywistości nie istnieją. Badacze nadają przedmiotom nienaturalnym specjalne, ograniczające właściwości, które możliwe są tylko w „ograniczających” przypadkach. Przykładami są linia prosta, punkt materialny, gaz doskonały. W ten sposób nauka wyodrębnia ze świata obiektywnego pewne obiekty, które całkowicie poddają się naukowemu opisowi, pozbawione są właściwości drugorzędnych.

Metodę idealizacji w szczególności zastosował Galileusz, który zauważył, że jeśli usuniemy wszystkie siły zewnętrzne działające na poruszający się obiekt, to będzie on się poruszał w nieskończoność, prostoliniowo i jednostajnie.

Zatem idealizacja teoretycznie pozwala na uzyskanie wyniku nieosiągalnego w rzeczywistości.

Jednak w rzeczywistości w tym przypadku badacz bierze pod uwagę: wysokość spadającego obiektu nad poziomem morza, szerokość geograficzną miejsca uderzenia, wpływ wiatru, gęstość powietrza itp.

Szkolenie metodyków jako najważniejsze zadanie edukacji

Dziś rola uczelni w kształceniu specjalistów, którzy twórczo opanowują metody wiedzy empirycznej i teoretycznej, staje się oczywista. Jednocześnie, jak pokazują doświadczenia uniwersytetów Stanford, Harvard, Yale i Columbia, przypisuje się im wiodącą rolę w rozwoju najnowszych technologii. Być może dlatego ich absolwenci są poszukiwani w firmach naukochłonnych, których udział stale rośnie.

Ważną rolę w szkoleniu naukowców odgrywają:

  • elastyczność programu edukacyjnego;
  • możliwość indywidualnego szkolenia dla najzdolniejszych studentów, zdolnych do stania się obiecującymi młodymi naukowcami.

Jednocześnie specjalizacja osób rozwijających ludzką wiedzę z zakresu IT, nauki inżynieryjne, produkcja, modelowanie matematyczne wymaga obecności nauczycieli z odpowiednimi kwalifikacjami.

Wniosek

Przytoczone w artykule przykłady metod poznania teoretycznego dają ogólny pogląd na twórczą pracę naukowców. Ich działalność sprowadza się do kształtowania naukowej refleksji świata.

Polega ona w węższym, szczególnym znaczeniu na umiejętnym posługiwaniu się pewną metodą naukową.
Badacz podsumowuje empirycznie udowodnione fakty, stawia i testuje hipotezy naukowe, formułuje teorię naukową, która rozwija ludzką wiedzę od ustalenia znanego do zrozumienia wcześniej nieznanego.

Czasami zdolność naukowców do korzystania z teorii metody naukowe wygląda jak magia. Nawet wieki później nikt nie wątpi w geniusz Leonarda da Vinci, Nikoli Tesli, Alberta Einsteina.

W nauce istnieją empiryczne i teoretyczne poziomy badań. empiryczny badania nakierowane są bezpośrednio na badany obiekt i realizowane są poprzez obserwację i eksperyment. teoretyczny badania koncentrują się wokół uogólniania idei, hipotez, praw, zasad. Dane z badań empirycznych i teoretycznych są rejestrowane w postaci twierdzeń zawierających terminy empiryczne i teoretyczne. Terminy empiryczne zawarte są w stwierdzeniach, których prawdziwość można zweryfikować w eksperymencie. Takie jest na przykład stwierdzenie: „Rezystancja danego przewodnika wzrasta po podgrzaniu z 5 do 10 ° C”. Prawdy twierdzeń zawierających terminy teoretyczne nie można ustalić eksperymentalnie. Aby potwierdzić prawdziwość stwierdzenia „Rezystancja przewodników wzrasta po podgrzaniu od 5 do 10 ° C”, należałoby przeprowadzić nieskończoną liczbę eksperymentów, co w zasadzie jest niemożliwe. „Opór danego dyrygenta” to termin empiryczny, termin obserwacji. „Opór przewodników” to termin teoretyczny, pojęcie uzyskane w wyniku uogólnienia. Stwierdzenia z pojęciami teoretycznymi są nieweryfikowalne, ale według Poppera są falsyfikowalne.

Najważniejszą cechą badań naukowych jest wzajemne ładowanie danych empirycznych i teoretycznych. W zasadzie nie da się w sposób absolutny oddzielić faktów empirycznych od teoretycznych. W powyższym stwierdzeniu z terminem empirycznym zastosowano pojęcia temperatury i liczby, które są pojęciami teoretycznymi. Ten, kto mierzy opór przewodników, rozumie, co się dzieje, bo ma wiedzę teoretyczną. Z drugiej strony, wiedza teoretyczna bez danych eksperymentalnych nie mają siły naukowej, zamieniają się w bezpodstawne spekulacje. Najważniejszą cechą nauki jest spójność, wzajemne ładowanie empirycznego i teoretycznego. Jeżeli naruszona zostanie określona zgodność harmoniczna, to w celu jej przywrócenia rozpoczyna się poszukiwanie nowych pojęć teoretycznych. Oczywiście w tym przypadku również doprecyzowano dane eksperymentalne. Rozważ, w świetle jedności tego, co empiryczne i teoretyczne, główne metody badań empirycznych.

Eksperyment- rdzeń badań empirycznych. łacińskie słowo„experimentum” dosłownie oznacza próbę, doświadczenie. Eksperyment jest aprobatą, testem badanych zjawisk w kontrolowanych i kontrolowanych warunkach. Eksperymentator stara się wyizolować badane zjawisko w jego najczystszej postaci, tak aby było jak najmniej przeszkód w uzyskaniu pożądanej informacji. Ustawienie eksperymentu poprzedzone jest odpowiednim Praca przygotowawcza. Opracowywany jest program eksperymentalny; w razie potrzeby produkowane są specjalne urządzenia i sprzęt pomiarowy; teoria jest dopracowana, co stanowi niezbędne narzędzie do eksperymentu.

Składnikami eksperymentu są: eksperymentator; badane zjawisko; urządzenia. W przypadku urządzeń rozmawiamy nie o urządzeniach technicznych, takich jak komputery, mikroskopy i teleskopy, zaprojektowanych w celu zwiększenia zmysłowych i racjonalnych możliwości człowieka, ale o urządzeniach wykrywających, urządzeniach pośredniczących, które rejestrują dane eksperymentalne i na które badane zjawiska mają bezpośredni wpływ. Jak widać eksperymentator jest „w pełni uzbrojony”, po swojej stronie m.in. doświadczenie zawodowe i, co najważniejsze, opanowanie teorii. We współczesnych warunkach eksperyment najczęściej przeprowadza grupa badaczy, którzy działają wspólnie, mierząc swoje wysiłki i umiejętności.

Badane zjawisko umieszcza się w eksperymencie w warunkach, w których reaguje na detektory (jeśli nie ma specjalnego detektora, to narządy zmysłów samego eksperymentatora działają jako takie: jego oczy, uszy, palce). Ta reakcja zależy od stanu i właściwości urządzenia. Ze względu na tę okoliczność eksperymentator nie może uzyskać informacji o badanym zjawisku jako takim, tj. w oderwaniu od wszelkich innych procesów i obiektów. Tak więc środki obserwacji są zaangażowane w tworzenie danych eksperymentalnych. W fizyce zjawisko to pozostawało nieznane aż do eksperymentów z dziedziny fizyki kwantowej i jego odkrycia w latach 20. - 30. XX wieku. była sensacją. Przez długi czas tłumaczył się N. Bora, że środki obserwacji wpływają na wyniki eksperymentu, został przyjęty z wrogością. Przeciwnicy Bohra wierzyli, że eksperyment można oczyścić z zakłócającego wpływu urządzenia, ale okazało się to niemożliwe. Zadaniem badacza nie jest przedstawienie obiektu jako takiego, ale wyjaśnienie jego zachowania we wszystkich możliwych sytuacjach.

Należy zauważyć, że w eksperymentach społecznych sytuacja również nie jest prosta, ponieważ badani reagują na uczucia, myśli i świat duchowy badacza. Podsumowując dane eksperymentalne, badacz nie powinien abstrahować od swojego wpływu, a mianowicie, biorąc go pod uwagę, umieć zidentyfikować to, co ogólne, istotne.

Dane eksperymentalne muszą być w jakiś sposób przekazywane znanym ludzkim receptorom, na przykład dzieje się tak, gdy eksperymentator odczytuje odczyty przyrządów pomiarowych. Eksperymentator ma możliwość i jednocześnie zmuszony jest do korzystania ze swoich wrodzonych (wszystkich lub niektórych) form poznania zmysłowego. Poznanie zmysłowe to jednak tylko jeden z momentów złożonego procesu poznawczego przeprowadzanego przez eksperymentatora. Wiedzy empirycznej nie można sprowadzić do wiedzy zmysłowej.

Wśród metod poznania empirycznego często nazywane są: obserwacja co jest czasem wręcz przeciwne metodzie eksperymentowania. Nie chodzi tu o obserwację jako etap jakiegokolwiek eksperymentu, ale o obserwację jako szczególny, holistyczny sposób badania zjawisk, obserwację procesów astronomicznych, biologicznych, społecznych i innych. Różnica między eksperymentowaniem a obserwacją sprowadza się w zasadzie do jednego punktu: w eksperymencie kontroluje się jego warunki, podczas gdy w obserwacji procesy pozostawia się naturalnemu biegowi zdarzeń. Z teoretycznego punktu widzenia struktura eksperymentu i obserwacji jest taka sama: badane zjawisko - urządzenie - eksperymentator (lub obserwator). Dlatego zrozumienie obserwacji nie różni się zbytnio od zrozumienia eksperymentu. Obserwację można uznać za rodzaj eksperymentu.

Ciekawą możliwością opracowania metody eksperymentowania jest tzw eksperymenty modelowe. Czasami eksperymentują nie na oryginale, ale na jego modelu, czyli na innym elemencie podobnym do oryginału. Model może mieć charakter fizyczny, matematyczny lub inny. Ważne jest, aby manipulacje z nim umożliwiały przekazanie otrzymanych informacji do oryginału. Nie zawsze jest to możliwe, ale tylko wtedy, gdy właściwości modelu są istotne, to znaczy rzeczywiście odpowiadają właściwościom oryginału. Nigdy nie osiąga się całkowitego dopasowania właściwości modelu i oryginału, a to z bardzo prostego powodu: model nie jest oryginałem. Jak żartowali A. Rosenbluth i N. Wiener, najlepszym materialnym modelem kota byłby inny kot, ale najlepiej, żeby był to dokładnie ten sam kot. Jednym ze znaczeń żartu jest to, że nie da się uzyskać tak wszechstronnej wiedzy o modelu, jak w trakcie eksperymentowania z oryginałem. Ale czasami można zadowolić się częściowym sukcesem, zwłaszcza jeśli badany obiekt jest niedostępny dla eksperymentu niemodelowego. Przed zbudowaniem tamy na wzburzonej rzece budowniczowie elektrowni wodnych przeprowadzą modelowy eksperyment w murach swojego rodzimego instytutu. Jeśli chodzi o modelowanie matematyczne, pozwala stosunkowo szybko „przegrać” różne opcje rozwój badanych procesów. Modelowanie matematyczne- metoda, która znajduje się na pograniczu empirycznego i teoretycznego. To samo dotyczy tzw. eksperymentów myślowych, kiedy rozważa się możliwe sytuacje i ich konsekwencje.

Pomiary są najważniejszym punktem eksperymentu, pozwalają na uzyskanie danych ilościowych. Podczas pomiaru porównywane są jakościowo identyczne cechy. Tutaj mamy do czynienia z sytuacją dość typową dla badań naukowych. Sam proces pomiarowy jest niewątpliwie operacją eksperymentalną. Ale tutaj ustalenie jakościowego podobieństwa porównywanych w procesie pomiaru cech należy już do teoretycznego poziomu wiedzy. Aby wybrać standardową jednostkę wielkości, trzeba wiedzieć, które zjawiska są sobie równoważne; w tym przypadku preferowany będzie standard, który ma zastosowanie do możliwie największej liczby procesów. Długość mierzono za pomocą łokci, stóp, stopni, miernika drewnianego, miernika platyny, a teraz są one kierowane długościami fal elektromagnetycznych w próżni. Czas był mierzony ruchem gwiazd, Ziemi, Księżyca, pulsu, wahadeł. Teraz czas mierzony jest zgodnie z przyjętym standardem sekundy. Jedna sekunda jest równa 9.192.631.770 okresom promieniowania odpowiedniego przejścia między dwoma określonymi poziomami struktury nadsubtelnej stanu podstawowego atomu cezu. Zarówno w przypadku pomiaru długości, jak i pomiaru czasu fizycznego jako wzorce pomiarowe wybrano oscylacje elektromagnetyczne. Wybór ten tłumaczy się treścią teorii, a mianowicie elektrodynamiką kwantową. Jak widać pomiar jest teoretycznie obciążony. Pomiaru można dokonać skutecznie tylko wtedy, gdy znaczenie tego, co jest mierzone i jak jest zrozumiane. Aby lepiej wyjaśnić istotę procesu pomiarowego, rozważ sytuację z oceną wiedzy uczniów np. w dziesięciostopniowej skali.

Nauczyciel rozmawia z wieloma uczniami i wystawia im oceny - 5 punktów, 7 punktów, 10 punktów. Uczniowie odpowiadają na różne pytania, ale nauczyciel wszystkie odpowiedzi podaje „pod wspólny mianownik”. Jeśli osoba, która zdała egzamin, poinformuje kogoś o swojej ocenie, to z tego krótka informacja nie da się ustalić, jaki był temat rozmowy między nauczycielem a uczniem. Nie interesuje się specyfiką komisji egzaminacyjnej i stypendialnej. Pomiar i ocena wiedzy uczniów jest szczególnym przypadkiem tego procesu, ustala gradacje ilościowe tylko w ramach danej jakości. Nauczyciel „przynosi” różne odpowiedzi uczniów o tej samej jakości, a dopiero potem ustala różnicę. Punkty 5 i 7 jako punkty są równoważne, w pierwszym przypadku punktów jest po prostu mniej niż w drugim. Nauczyciel, oceniając wiedzę uczniów, wychodzi ze swoich wyobrażeń o istocie tej dyscypliny akademickiej. Uczeń umie też generalizować, w myślach liczy swoje porażki i sukcesy. W końcu jednak nauczyciel i uczeń mogą dojść do różnych wniosków. Czemu? Przede wszystkim ze względu na to, że uczeń i nauczyciel nierówno rozumieją kwestię oceny wiedzy, obaj uogólniają, ale jeden z nich jest lepszy w tej operacji umysłowej. Pomiar, jak już wspomniano, jest teoretycznie obciążony.

Podsumujmy powyższe. Pomiar A i B obejmuje: a) ustalenie jakościowej tożsamości A i B; b) wprowadzenie jednostki wielkości (sekunda, metr, kilogram, punkt); c) interakcja A i B z urządzeniem, które ma taką samą charakterystykę jakościową jak A i B; d) odczytywanie odczytów przyrządu. Te zasady pomiaru są wykorzystywane w badaniu procesów fizycznych, biologicznych i społecznych. W przypadku procesów fizycznych urządzenie pomiarowe jest często dobrze zdefiniowanym urządzeniem technicznym. Są to termometry, woltomierze, zegary kwarcowe. W przypadku procesów biologicznych i społecznych sytuacja jest bardziej skomplikowana – zgodnie z ich systemowo-symbolicznym charakterem. Jego ponadfizyczne znaczenie oznacza, że ​​urządzenie również musi mieć takie znaczenie. Jednak urządzenia techniczne mają jedynie charakter fizyczny, a nie systemowo-symboliczny. Jeśli tak, to nie nadają się do bezpośredniego pomiaru cech biologicznych i społecznych. Ale te ostatnie są mierzalne i faktycznie są mierzone. Wraz z przytoczonymi już przykładami, wysoce orientacyjny w tym kontekście jest mechanizm rynku towarowo-pieniężnego, za pomocą którego mierzy się wartość towarów. Nie ma takiego urządzenia technicznego, które nie mierzyłoby kosztów towarów bezpośrednio, ale pośrednio, biorąc pod uwagę wszystkie działania kupujących i sprzedających, można to zrobić.

Po przeanalizowaniu empirycznego poziomu badań, musimy wziąć pod uwagę teoretyczny poziom badań organicznie z nim związanych.