Niveaux empirique et théorique des connaissances scientifiques. Connaissances empiriques et théoriques

Compte tenu des méthodes spécifiques de la connaissance scientifique, il faut comprendre que la capacité d'utiliser ces méthodes nécessite toujours la disponibilité de connaissances spécialisées. Ceci est important à prendre en compte car toutes les formes et tous les types d'activité scientifique nécessitent nécessairement la formation appropriée des spécialistes qui s'y livrent . Les méthodes empiriques de cognition, y compris même les plus "simples" d'entre elles - l'observation - pour leur mise en œuvre supposent, d'une part, la présence de certaines connaissances théoriques, et, d'autre part, l'utilisation d'équipements spéciaux et souvent très complexes. Outre, mener toute recherche scientifique implique toujours la présence d'une certaine situation problématique, afin de résoudre laquelle ces études sont menées . Les méthodes empiriques de la connaissance scientifique ne sont donc pas du tout les mêmes que les méthodes relativement proches d'étude de la réalité, qui sont menées du point de vue du bon sens et dans le cadre d'un cadre pratique quotidien.

Les méthodes empiriques de la connaissance scientifique comprennent :

1. Observation ;

2. Expérimentez ;

3. Mesure.

Parmi les méthodes nommées de la connaissance scientifique, l'observation est relativement la méthode la plus simple, puisque, par exemple, la mesure, en supposant la mise en œuvre de procédures supplémentaires, implique nécessairement l'observation correspondante comme base.

Observation

L'observation scientifique est une perception délibérée des objets, des phénomènes et des processus, en règle générale, du monde environnant. Particularité l'observation est qu'il s'agit d'une méthode passif enregistrement de certains faits de réalité. Parmi les types d'observations scientifiques, on peut distinguer :

Selon le but de l'observation, il peut être divisé en vérification et chercher ;

Selon la nature de l'existence de ce qui est étudié, les observations peuvent être divisées en observations d'objets, de phénomènes et de processus qui existent objectivement , c'est à dire. en dehors de la conscience de l'observateur, et l'introspection, c'est-à-dire introspection ;

L'observation d'objets objectivement existants est généralement divisée en immédiat et indirect observations.

Dans le cadre de sciences différentes, le rôle et la place de la méthode d'observation sont différents. Dans certaines sciences, l'observation est pratiquement le seul moyen d'obtenir des données initiales fiables. Notamment en astronomie. Bien que cette science soit essentiellement une branche appliquée de la physique et qu'elle repose donc sur les concepts théoriques de cette science naturelle fondamentale, de nombreuses données pertinentes spécifiquement pour l'astronomie ne peuvent être obtenues que par l'observation. Par exemple, la connaissance d'objets situés à une distance de plusieurs années-lumière. Pour la sociologie, l'observation est aussi l'une des principales méthodes de connaissance scientifique empirique.



L'observation scientifique pour sa mise en œuvre réussie nécessite la présence d'une situation problématique, ainsi que le support conceptuel et théorique correspondant. La base de l'observation scientifique, en règle générale, est toute hypothèse ou théorie, pour la confirmation ou la réfutation de laquelle l'observation correspondante est effectuée. . Le rôle et la place des facteurs conceptuels dans l'observation scientifique, ainsi que les spécificités de leurs types spécifiques, peuvent être illustrés à l'aide des exemples suivants.

Comme vous le savez, les gens observent le mouvement des objets dans le ciel depuis des temps immémoriaux et à la suite de cela, ils sont arrivés à une conclusion tout à fait naturelle, dans le cadre du bon sens, que la Terre avec des observateurs situés dessus est immobile, et les planètes se déplacent uniformément autour de lui sur des orbites circulaires régulières. Afin d'expliquer pourquoi ces planètes ne tombent pas sur la Terre, mais planent dans l'espace, il a été suggéré que la Terre est située à l'intérieur de plusieurs sphères transparentes semblables à du verre, dans lesquelles les planètes et les étoiles sont, pour ainsi dire, intercalées. La rotation de ces sphères autour de son axe, qui coïncide avec le centre de notre planète, conduit au fait que la surface des sphères commence à bouger, entraînant les planètes fermement fixées dessus.

Bien que cette notion soit complètement fausse, elle correspond à la logique de bon sens correspondante selon laquelle, pour qu'un corps continue de bouger et ne tombe jamais, il doit s'accrocher à quelque chose (dans ce cas, attaché à des sphères transparentes). L'idée qu'il soit possible à un corps de se déplacer continuellement le long d'une trajectoire fermée sans que personne ne le soutienne semble incroyable à penser dans le cadre du sens commun de l'époque correspondante. Il convient de noter que, à sa manière, le bon sens est « juste » : le fait est qu'en effet, dans le cadre de la perception naturelle, ordinaire et pré-théorique du mouvement des corps sur Terre, nous ne voyons pas tout ce qui pourrait tout le temps se déplacer le long d'une trajectoire fermée, planant et sans rien toucher, et en même temps ne tombant pas. Newton, qui a découvert la loi de la gravitation universelle, a naturellement aussi observé le mouvement de divers corps terrestres et cosmiques, dont la Lune. Cependant, il ne s'est pas contenté de les regarder, mais a utilisé des observations afin de comprendre d'eux ce qui ne peut pas être vu. A savoir : en comparant les données sur la vitesse du mouvement de la Lune autour de la Terre et leurs distances entre elles avec les caractéristiques du mouvement des corps tombant sur la Terre, il est arrivé à la conclusion que derrière tout cela il y a un seul et même modèle général, qui s'appelait la «loi de la gravité».

Cet exemple peut être considéré comme un cas chercher observation, dont le résultat a été la formulation de la loi correspondante. Le but de l'observation exploratoire est de collecter des faits en tant que matériau empirique primaire, sur la base de l'analyse desquels le général et l'essentiel peuvent être identifiés. Vérification L'observation diffère de l'exploration en ce sens qu'ici le but ultime n'est pas de rechercher de nouvelles connaissances théoriques, mais de tester celles qui existent. L'observation de vérification est une tentative de vérifier ou de réfuter une hypothèse. Un exemple d'une telle observation est, par exemple, une tentative de s'assurer que la loi de la gravité est vraiment de nature universelle, c'est-à-dire que son action s'étend à l'interaction de tous les corps massifs. De cette loi, en particulier, il résulte que plus la masse des corps en interaction est petite, plus la force d'attraction entre eux est petite. Par conséquent, si nous pouvons observer que la force d'attraction près de la surface de la Lune est inférieure à la même force à la surface de la Terre, qui est plus lourde que la Lune, alors il s'ensuit que cette observation confirme la loi de la gravité. Pendant le vol des astronautes, on peut observer le phénomène d'apesanteur, lorsque des personnes flottent librement à l'intérieur du vaisseau, en fait, sans être attirées par aucune de ses parois. Sachant que la masse d'un engin spatial est pratiquement négligeable par rapport à la masse des planètes, cette observation peut être considérée comme un autre test de la loi de la gravité.

Les exemples considérés peuvent être considérés comme des cas direct observations d'objets objectivement existants. Les observations directes sont de telles observations lorsque les objets pertinents peuvent être perçus directement en les voyant eux-mêmes, et pas seulement les effets qu'ils ont sur d'autres objets. Contrairement à l'observation directe indirect les observations sont celles où l'objet d'étude lui-même n'est pas observé du tout. Cependant, malgré cela, dans le cas de l'observation indirecte, on peut toujours voir les effets qu'un objet non observé a sur d'autres objets observés. Un comportement ou un état inhabituel des corps observables qui ne peut être expliqué en supposant qu'en réalité il n'y a que des corps directement observables et qui est la condition préalable à l'observation indirecte. En analysant les caractéristiques du comportement inhabituel des objets visibles et en les comparant avec des cas de comportement habituel de ces objets, on peut tirer certaines conclusions sur les propriétés des objets non observables. La composante inhabituelle du comportement des corps visibles est l'observation indirecte de ce qui n'est pas directement observable. Un exemple d'observations indirectes serait, par exemple, la situation associée au "mouvement brownien", ainsi que la composante empirique des connaissances sur les "trous noirs".

Le mouvement brownien est le mouvement constant des particules les plus petites, mais toujours à l'aide d'un microscope suffisamment puissant, observables visuellement de toute substance dans un liquide. Dans le cas du mouvement brownien, la question est tout à fait naturelle : quelle est la raison du mouvement observé de ces particules ? En répondant à cette question, nous pouvons supposer qu'il existe d'autres particules invisibles qui entrent en collision avec des particules visibles et les poussent ainsi. Comme vous le savez, la raison du mouvement brownien est que les objets qui ne sont pas observés visuellement avec un microscope optique - les atomes et les molécules - entrent tout le temps en collision avec les particules observées, les faisant bouger. Ainsi, bien que les atomes et les molécules eux-mêmes dans le domaine optique (lumière visible) soient généralement inobservables, cependant, même avant l'invention du microscope électronique, leurs propriétés individuelles pouvaient être observées. Naturellement, seulement indirectement.

Quant aux "trous noirs", il est en principe impossible de les observer directement. Le fait est que la force gravitationnelle qui agit en eux est si grande qu'aucun objet - y compris la lumière visible - ne peut vaincre l'attraction de ces objets. Cependant, les trous noirs peuvent être observés indirectement. En particulier, en relation avec un changement caractéristique de l'image du ciel étoilé à proximité (en raison de la courbure de l'espace par les forces gravitationnelles) ou dans le cas où un trou noir et un objet auto-lumineux (étoile) forment un système unique , qui, selon les lois de la mécanique, tourne autour d'un centre de masse commun. Dans ce dernier cas, le mouvement inhabituel d'une étoile le long d'une trajectoire fermée (après tout, elle seule est directement observable) sera un cas d'observation indirecte d'un trou noir.

Introspection C'est l'observation d'une personne sur le contenu de sa propre conscience. À la fin des années 40 du XXe siècle. L'étude suivante a été réalisée aux États-Unis. Afin de savoir si le fonctionnement de la conscience est possible en cas de paralysie du corps, le sujet s'est vu injecter un dérivé du curare, une substance qui paralyse tout le système musculaire humain. Il s'est avéré que, malgré la paralysie des muscles (le sujet était relié à un appareil de respiration artificielle, puisqu'il ne pouvait pas respirer par lui-même), la capacité d'activité consciente était préservée. Le sujet était capable d'observer ce qui se passait autour de lui, de comprendre la parole, de se souvenir des événements et d'y réfléchir. Il en a été conclu que l'activité mentale peut être réalisée en l'absence de toute activité musculaire.

Les données obtenues à la suite d'observations ne peuvent prétendre à un statut scientifique que si leur objectivité est reconnue. Un facteur essentiel à cet égard est la reproductibilité de ce qui a déjà été vu par d'autres. Si, par exemple, quelqu'un déclare observer quelque chose que d'autres n'observent pas dans des conditions similaires, alors ce sera une raison suffisante pour ne pas reconnaître le statut scientifique de cette observation. Si, cependant, une «observation» contredit également des modèles bien connus et bien établis dans le domaine de n'importe quel domaine de la connaissance, alors dans ce cas, on peut dire avec un degré de certitude significatif que le fait «observé» n'a jamais existé. du tout. Apparemment, l'un des cas les plus connus d'une telle pseudo-observation peut être considéré comme l'histoire du monstre du Loch Ness.

Donner à l'observation le statut de connaissance scientifiquement significative point important est la justification que l'objet observé, l'une ou l'autre de ses propriétés existent objectivement , et ne sont pas seulement le résultat de l'impact de la boîte à outils que l'observateur utilise. Un exemple d'erreur grossière peut être considéré comme le cas où, par exemple, l'appareil photo photographie un objet qui n'est en fait pas un sujet éloigné du panorama exposé, mais un artefact qui s'est accidentellement collé aux éléments du système optique de l'appareil photo (par exemple , une particule de poussière sur la lentille).

Le problème de la prise en compte et de la minimisation de l'influence du sujet-chercheur sur l'objet étudié est typique non seulement des sciences naturelles, mais aussi des sciences sociales. En particulier, dans le cadre de la sociologie, il y a le concept de " observation incluse ", c'est à dire. comme lorsqu'un chercheur recueille des données sur un certain groupe social, tout en vivant à proximité ou même dans le cadre de ce groupe depuis assez longtemps. Ce dernier est fait pour que ceux qui sont l'objet d'observation s'habituent à la présence d'un observateur extérieur, ne lui prêtent pas une attention particulière et se comportent en sa présence comme ils le font habituellement.

Expérience

La chose principale La différence entre une expérience et une observation est qu'il ne s'agit pas d'une méthode d'enregistrement passif de données, mais d'une telle manière de connaître la réalité, où, afin d'étudier les connexions et les relations existantes, le flux de processus et de phénomènes pertinents est organisé à dessein. . Au cours de l'expérience, le chercheur intervient consciemment dans le cours naturel des événements afin d'identifier, bien qu'existante, mais souvent non évidente, la relation entre les phénomènes étudiés. Il est habituel d'attribuer l'expérience à des méthodes empiriques de cognition car, en règle générale, elle est censée manipuler objectivement des objets et des processus existants du monde matériel, qui, bien sûr, peuvent être observés. Cependant, l'expérience n'en est pas moins liée à certains concepts théoriques. Toute expérience est toujours basée sur une certaine hypothèse ou théorie, pour la confirmation ou la réfutation de laquelle l'expérience correspondante est réalisée.

Parmi les types d'études expérimentales, on distingue :

Du point de vue du but de mener des expériences, ainsi que des observations scientifiques, peuvent être divisés en vérification et chercher ;

Selon les caractéristiques objectives des objets avec lesquels la recherche est effectuée, les expériences peuvent être divisées en droit et maquette ;

L'expérience s'appelle direct lorsque l'objet d'étude est un sujet ou un processus de la vie réelle, et maquette , lorsqu'au lieu de l'article lui-même, son modèle réduit est généralement utilisé. Un type particulier d'expériences de modélisation est l'étude de modèles mathématiques de certains objets ou processus. Concernant " expériences de pensée " - c'est à dire. où aucune recherche réelle n'est effectuée, mais seul le flux de certains processus et phénomènes est imaginé - alors ces derniers, à proprement parler, ne peuvent être attribués au domaine de la connaissance empirique, car ils représentent par essence une sorte de recherche théorique . Cependant, dans de nombreux cas, sur la base d'une expérience de pensée, une véritable étude expérimentale peut également être réalisée, qui peut être considérée comme une matérialisation des idées théoriques correspondantes.

Pour comprendre le rôle de l'expérimentation comme méthode de connaissance scientifique il faut imaginer que la réalité à laquelle le chercheur a affaire se présente d'abord devant lui non pas comme un enchaînement strictement et systématiquement organisé de relations et de relations causales, mais seulement comme un ensemble plus ou moins ordonné, au sein duquel le rôle et l'influence des certains facteurs ne sont souvent pas tout à fait évidents. C'est pourquoi une condition préalable à l'expérience est la formulation de l'hypothèse sur la façon dont les facteurs étudiés peuvent être liés les uns aux autres, et afin de vérifier cette relation supposée, il est nécessaire créer des conditions pour exclure l'influence d'autres facteurs relativement aléatoires et insignifiants , dont l'action peut masquer ou perturber le cours des relations étudiées. Par exemple, sur la base de la perception ordinaire du monde environnant, on peut remarquer qu'un corps plus lourd tombe à la surface de la Terre plus rapidement qu'un plus léger. Cela se produit parce que l'air de l'atmosphère empêche le mouvement des corps. Sans le savoir, à partir de la seule expérience de l'observation quotidienne, après l'avoir généralisée au préalable, on peut arriver à la "découverte" d'une dépendance qui n'existe pas réellement : l'affirmation que la vitesse de chute d'un corps dépend toujours de sa Masse. En réalité, il n'existe pas de lien tel qu'une dépendance constante, puisque la masse de la Terre peut être considérée comme une valeur infiniment grande par rapport à la masse de tout objet que nous sommes capables de faire tomber dessus. Pour cette raison, le taux de chute de tout corps tombé ne dépend que de la masse de la Terre. Mais comment le prouver ? Galilée, au nom duquel il est d'usage d'associer le début de l'application de l'expérience en tant que méthode de connaissance scientifique, l'a fait de la manière suivante. Il a lâché deux objets en même temps d'une hauteur de 60 m (la tour penchée de Pise) : une balle de mousquet (200 gr.) et un boulet de canon (80 kg.). Comme les deux objets sont tombés sur Terre en même temps, Galileo a conclu que l'hypothèse selon laquelle la vitesse de chute d'un corps est toujours liée à sa masse est incorrecte.

L'expérience de Galileo est un exemple direct expérience pour tester (réfuter) la théorie erronée, selon laquelle la vitesse de chute dépend toujours de la masse du corps qui tombe. En modifiant légèrement les conditions initiales de l'expérience de Galilée, il n'est pas difficile d'organiser une telle expérience, dont les résultats peuvent être interprétés comme une confirmation de la théorie de la gravitation. Par exemple, si nous prenons une chambre suffisamment grande, d'où tout l'air a été préalablement évacué, et y plaçons une boule de coton lâche et une boule de plomb, puis les faisons tomber à l'intérieur de cette chambre, alors nous pouvons voir que la boule et la motte, ayant des paramètres de masses, de surfaces et de densités sensiblement différents, cependant, dans un milieu raréfié (en l'absence d'air) tomberont simultanément. Ce fait peut être interprété comme une confirmation de la théorie de la gravitation.

Il convient de noter que pas dans tous les cas, les scientifiques ont une bonne justification théorique pour les études expérimentales. La particularité des expériences exploratoires est liée au fait qu'elles sont menées dans le but de collecter les informations empiriques nécessaires pour construire ou affiner une hypothèse ou une conjecture. . Un exemple illustratif de ce type de recherche peut servir les expériences de Benjamin Rumford sur l'étude de la nature des phénomènes thermiques. Avant la création de la théorie de la cinétique moléculaire, la chaleur était considérée comme une sorte de substance matérielle. En particulier, on croyait que le chauffage du corps était associé à l'ajout de cette substance, appelée calorique. Les spécialistes de la découpe des métaux à l'époque de Rumfoord savaient bien que lors du perçage du métal, une grande quantité de chaleur est générée. Dans le cadre de la théorie du calorique, ils ont tenté d'expliquer ce fait par le fait que lors du traitement du métal, le calorique en est séparé et passe dans des copeaux de métal, qui se forment à la suite du perçage. Bien qu'une telle explication ne semble pas convaincante, rien de mieux ne pouvait être proposé à ce moment-là.

Rumfoord connaissait naturellement le fait d'une forte génération de chaleur lors du forage, mais pour l'expliquer, il a fait l'expérience suivante. Il a pris un foret spécialement émoussé et l'a utilisé pour faire un trou. En conséquence, encore plus de chaleur a été libérée qu'avec une perceuse pointue, mais un trou beaucoup plus petit a été percé et très peu de sciure de bois s'est formée. Sur la base de cette expérience, il a été conclu que l'augmentation de la chaleur n'est pas associée à la formation de sciure de bois, dans laquelle, comme on le croyait, la substance calorique passe. La cause de la chaleur n'est pas la libération et la transition d'une substance matérielle spéciale de calorique, mais le mouvement. Ainsi, l'expérience faite par Rumfoord a contribué à la compréhension que la chaleur est une caractéristique d'un certain état de la matière, et non quelque chose qui s'y ajoute.

Pas dans tous les cas, l'expérience est une interaction directe avec l'objet à l'étude. Très souvent, il est beaucoup plus économique de mener des recherches sur des modèles réduits de ces objets. . En particulier, des exemples de telles études sont des expériences pour déterminer les caractéristiques aérodynamiques de la cellule (coque) d'un aéronef ou pour étudier l'ampleur de la résistance à l'eau qui existe avec des formes données de la coque du navire. Il est évident que la réalisation de telles études sur des modèles, respectivement, en soufflerie ou en piscine est beaucoup moins chère que des expériences avec des objets réels. En même temps, il faut comprendre que le modèle réduit n'est pas une copie exacte de l'objet à l'étude, puisque les effets physiques qui se produisent lors du soufflage ou du déplacement du modèle ne sont pas seulement quantitativement, mais aussi qualitativement non identiques à ceux qui se produisent dans le cas d'objets grandeur nature. Par conséquent, pour que les données obtenues à partir d'expériences sur modèle soient utilisées dans la conception d'objets grandeur nature, elles doivent être recalculées en tenant compte de coefficients spéciaux.

Dans le cadre de la diffusion actuelle des ordinateurs, des expériences avec modèles mathématiques objets à l'étude. Une condition préalable à la modélisation mathématique est la quantification de toutes les propriétés essentielles des objets étudiés et des lois auxquelles ces objets obéissent. Les paramètres initiaux du modèle mathématique sont les propriétés des objets et des systèmes réels, qui sont traduits sous forme numérique. Le processus de modélisation mathématique est le calcul des changements qui arriveront au modèle en cas de changement des paramètres initiaux. En raison du fait qu'il peut y avoir beaucoup de tels paramètres, leur calcul nécessite beaucoup d'efforts. L'utilisation d'ordinateurs permet d'automatiser et d'accélérer considérablement le processus de calcul correspondant. L'avantage évident de la modélisation mathématique est la possibilité d'obtenir (grâce au traitement d'un grand nombre de paramètres) un calcul rapide des scénarios possibles pour le développement des processus simulés. Un effet supplémentaire de ce type de modélisation est des économies de coûts importantes, ainsi que la minimisation d'autres coûts. Par exemple, effectuer des calculs des caractéristiques du déroulement des réactions nucléaires à l'aide d'un ordinateur a permis d'abandonner les vrais essais d'armes nucléaires.

L'exemple le plus clair et le plus célèbre expérience de pensée est le "navire de Galilée". À l'époque de Galilée, on croyait que le repos était absolu et que le mouvement n'était qu'un processus temporaire de transition d'un état à un autre sous l'influence d'une force. Dans un effort pour réfuter cette affirmation, Galilée a imaginé ce qui suit. Qu'un homme qui se trouve dans la cale fermée d'un navire en mouvement uniforme et qui ne sait donc rien de ce qui se passe à l'extérieur de la cale, essaie de répondre à la question : le navire est-il immobile ou flotte-t-il ? En réfléchissant à cette question, Galileo est arrivé à la conclusion qu'il n'y a aucun moyen pour celui qui est dans la cale dans les conditions données de trouver la bonne réponse. Et il s'ensuit que le mouvement uniforme est indiscernable du repos et, par conséquent, on ne peut soutenir que le repos est un état naturel, pour ainsi dire, primaire, et donc un état correspondant au système de référence absolu, et le mouvement n'est qu'un moment de repos, quelque chose qui s'accompagne toujours de l'action d'une force quelconque.

Naturellement, l'expérience de pensée de Galileo n'est pas difficile à mettre en œuvre dans des performances à grande échelle.

La recherche expérimentale peut être menée non seulement dans les sciences naturelles, mais aussi dans les sciences sociales et les sciences humaines. . Par exemple, en psychologie, où les données sont obtenues sur la base d'expériences qui servent à étayer des hypothèses qui, à première vue, sont assez difficiles à vérifier. En particulier, avant toute recherche spécialisée, au niveau de la perception quotidienne, un adulte est bien conscient que son psychisme diffère du psychisme d'un enfant.

La question est, en quoi est-ce exactement différent? Si, par exemple, pour caractériser le niveau de développement mental d'un adulte, des concepts tels que « personnalité » et « conscience de soi » sont utilisés, est-il possible et dans quel sens de les utiliser pour caractériser le niveau de développement mental d'un enfant? A quel âge, par exemple, une personne a-t-elle déjà une conscience de soi, et quand n'existe-t-elle pas encore ? À première vue, il est plutôt difficile de dire quelque chose de précis ici. De plus, ces concepts eux-mêmes ne sont pas définis strictement et sans ambiguïté.

Malgré ces difficultés, le psychologue Jean Piaget a montré de manière assez convaincante dans ses travaux qu'un petit enfant est beaucoup moins capable de contrôler consciemment ses propres processus mentaux qu'un adulte. À la suite d'une série d'études, Piaget est arrivé à la conclusion que les enfants âgés de 7-8 ans sont pratiquement incapables d'introspection (sans laquelle il est difficilement possible de parler de conscience de soi au sens où l'entendent les adultes). Cette capacité, à son avis, se forme progressivement dans l'intervalle d'âge entre 7-8 et 11-12 ans. Piaget a tiré de telles conclusions sur la base d'une série d'expériences, dont le contenu se résumait au fait qu'on proposait d'abord aux enfants un problème arithmétique simple (que la plupart des enfants peuvent résoudre), puis leur a demandé d'expliquer exactement comment ils sont arrivés à la solution correspondante. Selon Piaget, la présence d'une capacité d'introspection peut être reconnue comme existante si l'enfant peut effectuer une rétrospection, c'est-à-dire est capable de reproduire correctement le processus de sa propre décision. S'il n'y parvient pas et tente d'expliquer la décision, en partant par exemple du résultat obtenu, comme s'il le savait à l'avance, cela signifie que l'enfant n'a pas la capacité d'introspection au sens où elle est inhérente à adultes.

Dans le cadre de l'économie aussi, il est probablement possible de parler de manière significative de recherche expérimentale. En particulier, s'il existe un certain taux d'imposition en fonction duquel les paiements sont effectués, mais en même temps, certains contribuables cherchent à sous-estimer ou à cacher leurs revenus, alors dans la situation décrite, des actions peuvent être prises qui peuvent être qualifiées d'expérimentales. Supposons que, connaissant la situation décrite, les autorités gouvernementales compétentes puissent décider de réduire le taux d'imposition, en supposant que dans les nouvelles conditions, il sera plus rentable pour une partie importante des contribuables de payer des impôts que de les éluder, en risquant des amendes et autres les sanctions.

Après l'introduction des nouveaux taux d'imposition, il est nécessaire de comparer le niveau des impôts perçus avec celui qui existait aux taux antérieurs. S'il s'avère que le nombre de contribuables a augmenté, car certains ont accepté de sortir de l'ombre dans les nouvelles conditions, et que le nombre total de redevances a également augmenté, alors les informations reçues peuvent être utilisées pour améliorer le travail du autorités fiscales. S'il s'avère qu'il n'y a pas eu de changement dans le comportement des contribuables et que le montant total des impôts perçus a diminué, ces informations peuvent également être utilisées dans le travail des autorités compétentes, les motivant naturellement à rechercher d'autres solutions.

La mesure

La mesure consiste à trouver le rapport entre une quantité et une autre, qui est prise comme unité de mesure. Le résultat de la mesure est exprimé, en règle générale, par un certain nombre, ce qui permet de soumettre les résultats obtenus à un traitement mathématique. La mesure est une méthode importante de connaissance scientifique, puisque il peut être utilisé pour obtenir des données quantitatives précises sur l'ampleur et l'intensité et sur cette base, même parfois faire des hypothèses sur la nature des processus ou phénomènes correspondants.

Le changement comme moyen de déterminer l'ampleur et l'intensité se trouve déjà au niveau de la perception quotidienne du monde. En particulier, en tant qu'expérience subjective de "l'égalité", de la valeur "plus grande" ou "plus petite" de tout phénomène ou processus par rapport à d'autres cas de sa manifestation. Par exemple, la lumière peut être perçue comme étant plus ou moins brillante, et la température peut être jugée par des sensations telles que « froid », « très froid », « chaud », « chaud », « chaud », etc. L'inconvénient évident de cette méthode de détermination de l'intensité est son subjectivité et approximation . Cependant, pour le niveau de perception ordinaire du monde, une telle «échelle» peut être suffisante, mais dans le cadre des connaissances scientifiques, une telle approximation pose un problème sérieux. Et à tel point que le manque de méthodes et de pratiques de mesures précises peut même constituer l'un des facteurs sérieux qui entravent le développement scientifique et technique.

On peut comprendre l'importance de mesures précises si, par exemple, on imagine les tâches que les concepteurs et les technologues doivent résoudre lors de la création d'un dispositif technique complexe (par exemple, un moteur à combustion interne). Pour que ce moteur fonctionne et ait toujours un rendement suffisamment élevé, il est nécessaire que ses pièces - en particulier les pistons et les cylindres - soient fabriquées avec une grande précision. Et à tel point que l'écart entre les parois du cylindre et le diamètre du piston ne doit être que de quelques dixièmes de millimètre. À leur tour, pour fabriquer ces pièces de moteur, vous avez besoin de machines capables de traiter le métal avec une telle précision. Si une telle précision ou une précision proche ne peut être obtenue avec cet équipement technique, le moteur ne fonctionnera pas du tout ou son efficacité sera si faible que son utilisation ne sera pas économiquement réalisable. On peut en dire autant de tout autre dispositif technique quelque peu complexe.

Quantification les relations entre certains phénomènes, qui s'obtiennent par leur expression sous une forme quantitative exacte (cette dernière trouve sa manifestation dans la formulation stricte des lois pertinentes de la nature à travers l'utilisation de formules mathématiques) - il ne s'agit pas seulement d'une forme particulière d'enregistrement de données, mais d'une manière particulière d'exprimer les connaissances, qui en même temps a une valeur heuristique très spécifique . En particulier, l'expression sous cette forme de la loi bien connue de la gravitation universelle, selon laquelle entre deux corps quelconques il existe une force attractive proportionnelle au produit de leurs masses et inversement proportionnelle au carré de la distance qui les sépare, est précieux non seulement en tant que "connaissance exacte", qui peut être représentée sous la forme d'une formule compacte. La valeur heuristique de cette formule et d'autres réside dans le fait qu'en utilisant cette forme de représentation des connaissances, vous pouvez effectuer un calcul précis pour une situation spécifique en remplaçant certaines valeurs dans la formule. Sur la base de calculs appropriés, il est possible de créer, par exemple, un avion ou une fusée pouvant décoller dans les airs et ne pas tomber, voler au-delà des limites de la gravité et atteindre l'objectif prévu.

En ce qui concerne les spécificités modifier des objets , puis pour les sciences naturelles la capacité, tout d'abord, de déterminer caractéristiques numériques de l'espace et du temps : magnitude, distance entre les objets et durée des processus correspondants.

Mesurer la distance entre deux objets signifie la comparer à un étalon. Jusqu'à récemment, comme la norme corps fait de alliage dur , dont la forme a légèrement changé avec l'évolution des conditions extérieures. Comme unité de longueur, un mètre a été choisi - un segment comparable à la taille du corps humain. Dans la plupart des cas, cette norme ne s'adapte pas un nombre entier de fois sur la longueur du segment mesuré. Par conséquent, la longueur restante est mesurée en utilisant 1/10, 1/100, 1/1000, etc. parties de la norme. En pratique, la division multiple de la norme d'origine est impossible. Par conséquent, pour améliorer la précision de la mesure et de la mesure de petits segments, un standard de dimensions nettement plus petites était nécessaire, qui est actuellement utilisé comme support électromagnétique permanent. ondes de portée optique .

Dans la nature, il existe des objets dont la taille est beaucoup plus petite que les longueurs d'onde de la gamme optique - ce sont de nombreuses molécules, atomes, particules élémentaires. Lors de leur mesure, un problème fondamental se pose: les objets dont les dimensions sont inférieures à la longueur d'onde du rayonnement visible cessent de réfléchir la lumière selon les lois de l'optique géométrique et, par conséquent, cessent d'être perçus sous la forme d'images visuelles familières. Pour estimer la taille de ces petits objets, la lumière est remplacée flux de toute particule élémentaire . Dans ce cas, la magnitude des objets est estimée à partir des sections efficaces dites de diffusion, qui sont déterminées par le rapport du nombre de particules qui ont changé de direction de mouvement à la densité du flux incident. La plus petite distance connue à l'heure actuelle est la taille caractéristique d'une particule élémentaire : 10 -15 m, parler de plus petites tailles n'a pas de sens.

Lors de la mesure de distances dépassant largement 1 m, il est également peu pratique d'utiliser la norme de longueur appropriée. Pour mesurer des distances comparables à la taille de la Terre, on utilise des méthodes triangulation et radar . La méthode de triangulation consiste dans le fait que, connaissant les valeurs d'un côté du triangle et des deux angles qui lui sont adjacents, il est possible de calculer les valeurs des deux autres côtés. L'essence de la méthode radar est de mesurer le temps de retard du signal réfléchi, dont la vitesse de propagation et le temps de départ sont connus. Cependant, pour de très grandes distances, par exemple pour mesurer des distances à d'autres galaxies, ces méthodes sont inapplicables, car le signal réfléchi est trop faible et les angles sous lesquels l'objet est vu s'avèrent pratiquement incommensurables. A de très grandes distances, seulement objets auto-lumineux (étoiles et leurs amas). La distance qui les sépare est estimée en fonction de la luminosité observée. À l'heure actuelle, la partie observable de l'Univers a des dimensions de 10 24 m, cela n'a aucun sens de parler de grandes dimensions.

Mesurer la durée d'un processus, c'est le comparer à une norme. En tant que telle norme, il est pratique de choisir n'importe quel processus récurrent et, par exemple Oscillations pendulaires . Une seconde a été choisie comme unité de mesure du temps - un intervalle approximativement égal à la période de contraction du muscle cardiaque humain. Pour mesurer des périodes de temps beaucoup plus courtes, de nouvelles normes étaient nécessaires. Dans leur rôle étaient vibrations du réseau et mouvement des électrons dans un atome . Des périodes de temps encore plus courtes peuvent être mesurées en les comparant au temps qu'il faut à la lumière pour parcourir un intervalle donné. Par conséquent, le plus petit intervalle de temps significatif est le temps nécessaire à la lumière pour parcourir la distance minimale possible.

À l'aide d'horloges à pendule, il est possible de mesurer des intervalles de temps dépassant largement 1 seconde, mais même dans ce cas, les possibilités de la méthode ne sont pas illimitées. Les périodes de temps par rapport à l'âge de la Terre (10 17 sec.) sont généralement estimées à partir de la demi-vie des atomes d'éléments radioactifs. Selon les concepts modernes, la période de temps maximale dont il est logique de parler est l'âge de l'Univers, qui est estimé à une période de 10 18 sec. (en comparaison: vie humaine dure environ 10 9 sec.).

Les manières décrites de changer l'espace et le temps et la précision qui a été obtenue dans ce domaine sont d'une grande importance théorique et pratique. En particulier, l'extrapolation dans le temps de l'expansion observée et mesurée avec précision de l'univers est l'un des faits importants qui sont plaidés en faveur de la théorie du Big Bang. Grâce à la possibilité de mesures précises, des données ont été obtenues sur le mouvement des continents de la Terre les uns par rapport aux autres d'une valeur approximativement égale à plusieurs centimètres par an, ce qui a importance pour la géologie.

La capacité de faire des changements précis est d'une grande importance. Les données qui peuvent être obtenues à la suite d'un tel changement agissent souvent comme un argument significatif en faveur de l'acceptation ou du rejet d'une hypothèse. Par exemple, la mesure par O. Römer au 17ème siècle. la vitesse de la lumière était un argument important en faveur de la reconnaissance que ce dernier est un processus physique naturel, et non quelque chose d'autre, non matériel, dont la vitesse est "infinie", comme beaucoup le pensaient à cette époque et les suivantes. La capacité de mesurer avec précision la période de passage d'un faisceau lumineux dans différentes directions à l'aide d'un instrument spécialement conçu (l'expérience Michelson-Morley en 1880) a été un facteur important qui a largement contribué au rejet de la théorie de l'éther en physique.

La mesure en tant que méthode de connaissance scientifique est d'une grande importance non seulement pour les sciences naturelles et techniques, mais aussi pour le domaine de la connaissance sociale et humanitaire. Tout le monde sait de sa propre expérience que le matériel significatif est mémorisé plus rapidement que le matériel sans signification. Cependant, combien? Le psychologue Herman Ebbinghaus a découvert que le matériel significatif est mémorisé 9 fois plus rapidement que le matériel absurde. Actuellement, dans le cadre de la psychologie appliquée, les mesures sont largement utilisées pour évaluer les capacités mentales d'une personne.

Le sociologue Emile Durkheim, se basant sur une analyse des données statistiques sur le nombre de suicides dans différents pays européens, a établi une corrélation entre ce fait et le degré d'intégration entre les personnes dans les groupes sociaux respectifs. La connaissance de la population d'un certain pays, la dynamique de la mortalité et de la fécondité sont des statistiques importantes pour un certain nombre de sciences sociales appliquées.

Le rôle des mesures et des données statistiques est également important pour la science économique moderne, en particulier en raison de l'utilisation généralisée des méthodes mathématiques. Par exemple, la comptabilité numérique de l'offre et de la demande est importante dans le domaine de la recherche marketing.

Ces méthodes empiriques de cognition telles que l'observation, l'expérimentation et la mesure jouent un rôle énorme dans les connaissances scientifiques modernes et leur utilisation est inséparable des idées scientifiques théoriques correspondantes. C'est ce qui les distingue des manières empiriques ordinaires de connaître le monde. Les méthodes empiriques sont importantes à toutes les étapes de la connaissance scientifique du monde, puisque le matériel obtenu grâce à elles sert à la fois à confirmer et à réfuter les idées théoriques correspondantes, et est pris en compte dans leur formulation.

L'une des caractéristiques essentielles, qui est associée au stade actuel de développement des méthodes scientifiques empiriques de la cognition, est qu'un équipement extrêmement complexe et coûteux est nécessaire pour obtenir et vérifier les résultats correspondants. Apparemment on peut dire que la poursuite du développement sciences naturelles et techniques est largement déterminée par la capacité et la capacité de créer cet équipement . Par exemple, la recherche moderne dans le domaine de la physique fondamentale est si coûteuse que seuls certains pays sont en mesure de la mener, qui disposent de spécialistes de niveau et de fonds appropriés pour, notamment, participer à la construction et à l'exploitation d'un tel instrument complexe pour la recherche expérimentale comme la construction récente du Large Hadron Collider.

Dans la connaissance, deux niveaux sont distingués : empirique et théorique.

Niveau de connaissance empirique (de Gr. Emreiria - expérience) - il s'agit d'une connaissance obtenue directement à partir de l'expérience avec un traitement rationnel des propriétés et des relations de l'objet est connu. C'est toujours la base, la base du niveau théorique des connaissances.

Le niveau théorique est la connaissance acquise par la pensée abstraite.

Une personne commence le processus de cognition d'un objet à partir de sa description externe, fixe ses propriétés individuelles, ses côtés. Ensuite, il approfondit le contenu de l'objet, révèle les lois auxquelles il est soumis, procède à l'explication des propriétés de l'objet, combine les connaissances sur les aspects individuels du sujet en un système unique et intégral, et le concret polyvalent profond la connaissance obtenue en même temps sur le sujet est une théorie qui a une certaine structure logique interne.

Il faut distinguer les notions de "sensuel" et de "rationnel" des notions d'"empirique" et de "théorique". « Sensuel » et « rationnel » caractérisent la dialectique du processus de réflexion en général, tandis que « empirique » et « théorique » appartiennent à la seule sphère de la connaissance scientifique.

La connaissance empirique se forme dans le processus d'interaction avec l'objet d'étude, lorsque nous l'influençons directement, interagissons avec lui, traitons les résultats et tirons une conclusion. Mais l'obtention de faits et de lois empiriques individuels ne permet pas encore de construire un système de lois. Pour en connaître l'essence, il est nécessaire d'aller au niveau théorique des connaissances scientifiques.

Les niveaux de connaissance empirique et théorique sont toujours inextricablement liés et se conditionnent mutuellement. Ainsi, la recherche empirique, révélant de nouveaux faits, de nouvelles données d'observation et expérimentales, stimule le développement du niveau théorique, lui pose de nouveaux problèmes et de nouvelles tâches. À son tour, la recherche théorique, considérant et concrétisant le contenu théorique de la science, ouvre de nouvelles perspectives pour expliquer et prédire les faits, et oriente et oriente ainsi les connaissances empiriques. La connaissance empirique est médiatisée par la connaissance théorique - la connaissance théorique indique exactement quels phénomènes et événements doivent faire l'objet d'une recherche empirique et dans quelles conditions l'expérience doit être menée. Théoriquement, cela s'avère également et indique les limites dans lesquelles les résultats au niveau empirique sont vrais, dans lesquelles les connaissances empiriques peuvent être utilisées dans la pratique. C'est précisément la fonction heuristique du niveau théorique de la connaissance scientifique.

La frontière entre les niveaux empirique et théorique est assez arbitraire, leur indépendance l'un par rapport à l'autre est relative. L'empirique passe au théorique, et ce qui était autrefois théorique, à un autre stade de développement supérieur, devient empiriquement accessible. Dans toute sphère de la connaissance scientifique, à tous les niveaux, il y a une unité dialectique du théorique et de l'empirique. Le rôle prépondérant dans cette unité de dépendance au sujet, aux conditions et aux résultats scientifiques déjà existants, obtenus appartient soit à l'empirique, soit au théorique. La base de l'unité des niveaux empirique et théorique de la connaissance scientifique est l'unité de la théorie scientifique et de la pratique de la recherche.

Méthodes de base de la connaissance scientifique

Chaque niveau de connaissance scientifique utilise ses propres méthodes. Ainsi, au niveau empirique, des méthodes de base telles que l'observation, l'expérimentation, la description, la mesure, la modélisation sont utilisées. Théoriquement - analyse, synthèse, abstraction, généralisation, induction, déduction, idéalisation, méthodes historiques et logiques, etc.

L'observation est une perception systématique et ciblée d'objets et de phénomènes, de leurs propriétés et relations dans des conditions naturelles ou dans des conditions expérimentales dans le but de comprendre l'objet étudié.

Les principales fonctions de surveillance sont les suivantes :

Fixation et enregistrement des faits;

Classement préliminaire des faits déjà constatés sur la base de certains principes formulés à partir des théories existantes ;

Comparaison des faits enregistrés.

Avec la complexité des connaissances scientifiques, l'objectif, le plan, les orientations théoriques et la compréhension des résultats prennent de plus en plus de poids. En conséquence, le rôle de la pensée théorique dans l'observation augmente.

Il est particulièrement difficile d'observer Sciences sociales, où ses résultats dépendent largement de la vision du monde et des attitudes méthodologiques de l'observateur, son attitude envers l'objet.

La méthode d'observation est limitée par la méthode, car avec son aide, il est seulement possible de fixer certaines propriétés et connexions d'un objet, mais il est impossible de révéler leur essence, leur nature, leurs tendances de développement. L'observation complète de l'objet est la base de l'expérience.

Une expérience est une étude de tout phénomène en les influençant activement en créant de nouvelles conditions correspondant aux objectifs de l'étude ou en modifiant le cours du processus dans une certaine direction.

Contrairement à la simple observation, qui n'implique pas d'impact actif sur l'objet, une expérience est une intervention active du chercheur sur des phénomènes naturels, au cours des processus étudiés. Une expérience est une sorte de pratique dans laquelle l'action pratique est organiquement combinée avec le travail théorique de la pensée.

L'importance de l'expérience réside non seulement dans le fait qu'avec son aide la science explique les phénomènes du monde matériel, mais aussi dans le fait que la science, s'appuyant sur l'expérience, maîtrise directement l'un ou l'autre des phénomènes étudiés. Par conséquent, l'expérience constitue l'un des principaux moyens de communication entre la science et la production. Après tout, cela vous permet de vérifier l'exactitude des conclusions et découvertes scientifiques, de nouveaux modèles. L'expérience sert de moyen de recherche et d'invention de nouveaux dispositifs, machines, matériaux et procédés de production industrielle, une étape nécessaire dans la mise à l'essai pratique de nouvelles découvertes scientifiques et techniques.

L'expérience est largement utilisée non seulement dans les sciences naturelles, mais aussi dans la pratique sociale, où elle joue un rôle important dans la connaissance et la gestion des processus sociaux.

L'expérience a ses spécificités par rapport aux autres méthodes :

L'expérience permet d'étudier des objets sous la forme dite pure ;

L'expérience vous permet d'explorer les propriétés des objets dans des conditions extrêmes, ce qui contribue à une pénétration plus profonde de leur essence ;

Un avantage important de l'expérience est sa répétabilité, grâce à laquelle cette méthode acquiert une signification et une valeur particulières dans les connaissances scientifiques.

Une description est une indication des caractéristiques d'un objet ou d'un phénomène, à la fois essentielles et non essentielles. La description, en règle générale, est appliquée à des objets uniques et individuels pour une connaissance plus complète avec eux. Son but est de donner les informations les plus complètes sur l'objet.

La mesure est un système spécifique permettant de fixer et d'enregistrer les caractéristiques quantitatives de l'objet étudié à l'aide de divers instruments et appareils de mesure. À l'aide de la mesure, le rapport d'une caractéristique quantitative d'un objet à une autre, homogène avec lui, pris comme unité de mesure, est déterminé. Les principales fonctions de la méthode de mesure sont, d'une part, de fixer les caractéristiques quantitatives de l'objet ; deuxièmement, la classification et la comparaison des résultats de mesure.

La modélisation est l'étude d'un objet (original) en créant et en étudiant sa copie (modèle), qui, par ses propriétés dans une certaine mesure, reproduit les propriétés de l'objet étudié.

La modélisation est utilisée lorsque l'étude directe d'objets pour une raison quelconque est impossible, difficile ou peu pratique. Il existe deux grands types de modélisation : physique et mathématique. Au stade actuel de développement des connaissances scientifiques, une place particulièrement importante est accordée à la modélisation informatique. Un ordinateur fonctionnant selon un programme spécial est capable de simuler les processus les plus réels: fluctuations des prix du marché, orbites des engins spatiaux, processus démographiques et autres paramètres quantitatifs du développement de la nature, de la société et d'un individu.

Méthodes du niveau théorique des connaissances.

L'analyse est la division d'un objet en ses éléments constitutifs (côtés, caractéristiques, propriétés, relations) dans le but de leur étude approfondie.

La synthèse est l'union de parties préalablement identifiées (côtés, caractéristiques, propriétés, relations) d'un objet en un tout unique.

L'analyse et la synthèse sont des méthodes de cognition dialectiquement contradictoires et interdépendantes. La connaissance d'un objet dans son intégrité concrète suppose une division préalable de celui-ci en composants et la considération de chacun d'eux. Cette tâche est effectuée par analyse. Elle permet de dégager l'essentiel, ce qui fonde la connexion de tous les aspects de l'objet étudié. C'est-à-dire que l'analyse dialectique est un moyen de pénétrer l'essence des choses. Mais, tout en jouant un rôle important dans la cognition, l'analyse ne fournit pas la connaissance du concret, la connaissance de l'objet comme unité du multiple, l'unité des diverses définitions. Cette tâche est réalisée par synthèse. Ainsi, analyse et synthèse sont organiquement liées et se conditionnent mutuellement à chaque étape du processus de connaissance théorique.

L'abstraction est une méthode d'abstraction de certaines propriétés et relations d'un objet tout en se concentrant sur celles qui font l'objet direct de la recherche scientifique. L'abstraction contribue à la pénétration de la connaissance dans l'essence des phénomènes, le mouvement de la connaissance du phénomène à l'essence. Il est clair que l'abstraction démembre, grossit, schématise une réalité mobile intégrale. Or, c'est précisément ce qui permet une étude plus approfondie des aspects individuels du sujet « dans sa forme la plus pure ». Et cela signifie entrer dans leur essence.

La généralisation est une méthode de connaissance scientifique qui capture les caractéristiques générales et les propriétés d'un certain groupe d'objets, fait la transition de l'individuel au spécial et au général, du moins général au plus général.

Dans le processus de cognition, il est souvent nécessaire, en s'appuyant sur les connaissances existantes, de tirer des conclusions qui sont de nouvelles connaissances sur l'inconnu. Ceci est fait en utilisant des méthodes telles que l'induction et la déduction.

L'induction est une telle méthode de connaissance scientifique, lorsque, sur la base des connaissances sur l'individu, une conclusion est tirée sur le général. Il s'agit d'une méthode de raisonnement par laquelle la validité de l'hypothèse ou de l'hypothèse avancée est établie. Dans la cognition réelle, l'induction agit toujours en unité avec la déduction, est organiquement liée à elle.

La déduction est une méthode de cognition lorsque, sur la base de principe général d'une manière logique, de certaines propositions comme vraies, de nouvelles connaissances vraies sur l'individu sont nécessairement dérivées. Avec l'aide de cette méthode, l'individu est connu sur la base de la connaissance des modèles généraux.

L'idéalisation est une méthode de modélisation logique par laquelle des objets idéalisés sont créés. L'idéalisation vise les processus de construction concevable d'objets possibles. Les résultats de l'idéalisation ne sont pas arbitraires. Dans le cas limite, ils correspondent à des propriétés réelles individuelles d'objets ou permettent leur interprétation à partir des données du niveau empirique des connaissances scientifiques. L'idéalisation est associée à une "expérience de pensée", à la suite de laquelle, à partir d'un minimum hypothétique de certains signes du comportement des objets, les lois de leur fonctionnement sont découvertes ou généralisées. Les limites de l'efficacité de l'idéalisation sont déterminées par la pratique.

Les méthodes historiques et logiques sont organiquement liées. La méthode historique implique l'examen du processus objectif du développement de l'objet, sa véritable histoire avec tous ses rebondissements. C'est une certaine manière de reproduire en pensant le processus historique dans sa séquence chronologique et concrète.

La méthode logique est la manière dont reproduit mentalement le réel processus historique sous sa forme théorique, dans le système des concepts.

La tâche de la recherche historique est de révéler les conditions spécifiques du développement de certains phénomènes. La tâche de la recherche logique est de révéler le rôle que jouent les éléments individuels du système dans le développement de l'ensemble.

CARACTÉRISTIQUES DES CONNAISSANCES SCIENTIFIQUES. NIVEAUX EMPIRIQUE ET THEORIQUE DES CONNAISSANCES SCIENTIFIQUES.

L'activité cognitive la plus importante d'une personne se manifeste dans les connaissances scientifiques, car. C'est la science, par rapport aux autres formes de conscience sociale, qui vise avant tout l'assimilation cognitive de la réalité. Cela se reflète dans les caractéristiques savoir scientifique.

La marque de la connaissance scientifique est sa rationalité- un appel aux arguments de la raison et de la raison. La connaissance scientifique construit le monde en concepts. La pensée scientifique est avant tout une activité conceptuelle, tandis qu'en art, par exemple, une image artistique agit comme une forme de maîtrise du monde.

Une autre caractéristique- orientation vers la révélation des lois objectives de fonctionnement et de développement des objets étudiés. Il s'ensuit que la science tend vers l'objectif et objectif connaissance de la réalité. Mais puisque l'on sait que toute connaissance (y compris scientifique) est un alliage d'objectif et de subjectif, il convient de noter la spécificité de l'objectivité de la connaissance scientifique. Elle consiste dans l'élimination maximale possible (suppression, expulsion) du subjectif de la connaissance.

La science vise à découvrir et à développer voies et formes futures de développement pratique du monde, pas seulement aujourd'hui. En cela, elle diffère, par exemple, de la connaissance empirique spontanée ordinaire. Des décennies peuvent s'écouler entre la découverte scientifique et son application dans la pratique, dans tous les cas, mais, en fin de compte, les réalisations théoriques créent la base des futurs développements d'ingénierie appliquée pour satisfaire les intérêts pratiques.

savoir scientifique s'appuie sur des outils de recherche spécialisés, qui affectent l'objet étudié et permettent d'identifier ses états possibles dans des conditions contrôlées par le sujet. Des équipements scientifiques spécialisés permettent à la science d'étudier expérimentalement de nouveaux types d'objets.

Les caractéristiques les plus importantes de la connaissance scientifique sont sa preuve, validité et cohérence.

Les spécificités de la nature systématique de la science - dans son organisation à deux niveaux : les niveaux empirique et théorique et l'ordre de leur interaction. C'est l'unicité de la connaissance scientifique et de la connaissance, puisqu'aucune autre forme de connaissance n'a une organisation à deux niveaux.

Parmi les traits caractéristiques de la science figure son méthodologie particulière. Parallèlement à la connaissance des objets, la science forme la connaissance des méthodes de l'activité scientifique. Cela conduit à la formation de la méthodologie en tant que branche spéciale de la recherche scientifique, conçue pour guider la recherche scientifique.

La science classique, née aux XVIe-XVIIe siècles, combinait théorie et expérimentation, mettant en évidence deux niveaux de science : empirique et théorique. Ils correspondent à deux types de recherche scientifique interdépendants et en même temps spécifiques - activité cognitive: une étude empirique et théorique.

Comme mentionné ci-dessus, la connaissance scientifique est organisée sur deux niveaux : empirique et théorique.

À niveau empirique comprennent des techniques et des méthodes, ainsi que des formes de connaissances scientifiques directement liées à la pratique scientifique, avec les types d'activités objectives qui assurent l'accumulation, la fixation, le regroupement et la généralisation du matériel source pour la construction de connaissances théoriques indirectes. Cela comprend l'observation scientifique, les diverses formes d'expérimentation scientifique, les faits scientifiques et les manières de les regrouper : systématisation, analyse et généralisation.

À niveau théorique inclure tous les types et méthodes de connaissances scientifiques et les méthodes d'organisation des connaissances qui se caractérisent par divers degrés de médiation et assurent la création, la construction et le développement de la théorie scientifique en tant que connaissances logiquement organisées sur les lois objectives et d'autres connexions et relations significatives dans le monde objectif . Cela inclut la théorie et ses éléments et composants tels que les abstractions scientifiques, les idéalisations, les modèles, les lois scientifiques, les idées et hypothèses scientifiques, les méthodes de fonctionnement avec des abstractions scientifiques (déduction, synthèse, abstraction, idéalisation, moyens logiques et mathématiques, etc.)

Il faut souligner que si la différence entre les niveaux empirique et théorique est due à des différences qualitatives objectives dans le contenu et les méthodes de l'activité scientifique, ainsi qu'à la nature de la connaissance elle-même, cette différence est également relative. Aucune forme d'activité empirique n'est possible sans sa compréhension théorique et, à l'inverse, toute théorie, aussi abstraite soit-elle, repose en définitive sur la pratique scientifique, sur des données empiriques.

L'observation et l'expérimentation sont parmi les principales formes de connaissance empirique. Observation il y a une perception délibérée et organisée des objets et des phénomènes du monde extérieur. L'observation scientifique se caractérise par la détermination, la régularité et l'organisation.

Expérience diffère de l'observation par sa nature active, ingérence dans le cours naturel des événements. Une expérience est un type d'activité entreprise à des fins de connaissance scientifique, consistant à influencer un objet scientifique (processus) au moyen de dispositifs spéciaux. Grâce à cela, il est possible :

- isoler l'objet étudié de l'influence de phénomènes secondaires insignifiants ;

– reproduire à plusieurs reprises le déroulement du procédé dans des conditions strictement fixées ;

- étudier systématiquement, combiner diverses conditions afin d'obtenir le résultat souhaité.

Une expérience est toujours un moyen de résoudre une certaine tâche ou un problème cognitif. Il existe une grande variété de types d'expériences : expériences physiques, biologiques, directes, modèles, de recherche, de vérification, etc.

La nature des formes de niveau empirique détermine les méthodes de recherche. Ainsi, la mesure, en tant que l'un des types de méthodes de recherche quantitative, a pour objectif de refléter le plus pleinement possible des données objectives dans les connaissances scientifiques. relations quantitatives exprimé en nombre et en grandeur.

La systématisation des faits scientifiques est d'une grande importance. fait scientifique - ce n'est pas n'importe quel événement, mais un événement qui est entré dans la sphère de la connaissance scientifique et qui a été enregistré par l'observation ou l'expérience. La systématisation des faits signifie le processus de les grouper sur la base de propriétés essentielles. L'induction est l'une des méthodes les plus importantes de généralisation et de systématisation des faits.

induction définie comme une méthode d'obtention de connaissances probabilistes. L'induction peut être intuitive - une simple supposition, la découverte de points communs au cours de l'observation. L'induction peut servir de procédure pour établir le général en énumérant des cas particuliers. Si le nombre de ces cas est limité, il est alors qualifié de complet.



Raisonner par analogie appartient aussi au nombre des conclusions inductives, puisqu'elles sont caractérisées par la probabilité. Habituellement, l'analogie est comprise comme cas particulier la similitude entre les phénomènes, qui consiste dans la similitude ou l'identité des relations entre les éléments de systèmes différents. Pour augmenter le degré de plausibilité des conclusions par analogie, il est nécessaire d'augmenter la diversité et d'atteindre l'uniformité des propriétés comparées, afin de maximiser le nombre de caractéristiques comparées. Ainsi, à travers l'établissement de la similitude entre les phénomènes, une transition est essentiellement faite de l'induction à une autre méthode - la déduction.

Déduction diffère de l'induction en ce qu'elle est liée à des phrases découlant des lois et des règles de la logique, mais la vérité des prémisses est problématique, tandis que l'induction repose sur de vraies prémisses,

Mais le passage aux propositions-conclusions reste un problème. Par conséquent, dans les connaissances scientifiques, pour étayer les dispositions, ces méthodes se complètent.

Le chemin du passage des connaissances empiriques aux connaissances théoriques est très compliqué. Il a le caractère d'un saut dialectique, dans lequel des moments divers et contradictoires s'entremêlent, se complétant : pensée abstraite et sensibilité, induction et déduction, analyse et synthèse, etc. Le point clé de cette transition est l'hypothèse, son avancement, sa formulation et son développement, sa justification et sa preuve.

Le terme " hypothèse » est utilisé dans deux sens : 1) dans un sens étroit - la désignation d'une hypothèse sur un ordre régulier ou d'autres connexions et relations significatives ; 2) au sens large - comme un système de phrases, dont certaines sont des hypothèses initiales de nature probabiliste, tandis que d'autres représentent un déploiement déductif de ces prémisses. À la suite d'une vérification et d'une confirmation complètes de toutes les diverses conséquences, l'hypothèse se transforme en théorie.

la théorie un tel système de connaissances est appelé, pour lequel la véritable évaluation est tout à fait définitive et positive. La théorie est un système de connaissances objectivement vraies. Une théorie diffère d'une hypothèse par sa fiabilité, tandis qu'elle diffère des autres types de connaissances fiables (faits, statistiques, etc.) par son organisation logique stricte et son contenu, qui consiste à refléter l'essence des phénomènes. La théorie est la connaissance de l'essence. Un objet au niveau de la théorie apparaît dans sa connexion interne et son intégrité comme un système dont la structure et le comportement sont soumis à certaines lois. Grâce à cela, la théorie explique la variété des faits disponibles et peut prédire de nouveaux événements, ce qui parle de ses fonctions les plus importantes : explicative et prédictive (la fonction de prévoyance). Une théorie est composée de concepts et d'énoncés. Les concepts fixent les qualités et les relations des objets du domaine. Les énoncés reflètent l'ordre, le comportement et la structure réguliers du domaine. Une caractéristique de la théorie est que les concepts et les déclarations sont interconnectés dans un système logiquement cohérent et cohérent. L'ensemble des relations logiques entre les termes et les phrases d'une théorie forme sa structure logique, qui est, dans l'ensemble, déductive. Les théories peuvent être classées selon diverses caractéristiques et motifs: selon le degré de connexion avec la réalité, selon le domaine de création, d'application, etc.

La pensée scientifique fonctionne de plusieurs façons. Il est possible de distinguer, par exemple, l'analyse et la synthèse, l'abstraction et l'idéalisation, la modélisation. Une analyse - il s'agit d'une méthode de pensée associée à la décomposition de l'objet étudié en ses éléments constitutifs, évolution des tendances en vue de leur étude relativement indépendante. La synthèse- l'opération inverse, qui consiste à combiner les parties précédemment distinguées en un tout afin d'obtenir une connaissance d'ensemble sur les parties et les tendances précédemment distinguées. abstraction il y a un processus de sélection mentale, isolant les caractéristiques individuelles, les propriétés et les relations d'intérêt dans le processus de recherche afin de mieux les comprendre.

En voie d'idéalisation il y a une abstraction ultime de toutes les propriétés réelles de l'objet. Un soi-disant objet idéal est formé, sur lequel on peut agir tout en connaissant des objets réels. Par exemple, des concepts tels que «point», «ligne droite», «corps absolument noir» et autres. Ainsi, la notion de point matériel ne correspond en réalité à aucun objet. Mais un mécanicien, opérant avec cet objet idéal, est capable d'expliquer et de prédire théoriquement le comportement d'objets matériels réels.

Littérature.

1. Alekseev P.V., Panin A.V. Philosophie. - M., 2000. Sect. II, ch. XIII.

2. Philosophie / Éd. V.V. Mironova. - M., 2005. Sect. V, ch. 2.

question test pour l'autotest.

1. Quelle est la tâche principale de l'épistémologie ?

2. Quelles formes d'agnosticisme peut-on identifier ?

3. Quelle est la différence entre le sensationnalisme et le rationalisme ?

4. Qu'est-ce que "l'empirisme" ?

5. Quel est le rôle de la sensibilité et de la pensée dans l'activité cognitive individuelle ?

6. Qu'est-ce que la connaissance intuitive ?

7. Soulignez les idées principales du concept d'activité de la connaissance de K. Marx.

8. Comment la connexion entre le sujet et l'objet se déroule-t-elle dans le processus de cognition ?

9. Qu'est-ce qui détermine le contenu des connaissances ?

10. Qu'est-ce que la « vérité » ? Quelles principales approches en épistémologie de la définition de ce concept pouvez-vous nommer ?

11. Quel est le critère de vérité ?

12. Expliquez quelle est la nature objective de la vérité ?

13. Pourquoi la vérité est-elle relative ?

14. La vérité absolue est-elle possible ?

15. Quelle est la particularité de la connaissance scientifique et de la connaissance scientifique ?

16. Quelles formes et méthodes de niveaux empiriques et théoriques de connaissances scientifiques peut-on identifier ?

Les méthodes théoriques de cognition sont ce qu'on appelle communément la "raison froide". Un esprit versé dans la recherche théorique. Pourquoi donc? Souvenez-vous de la célèbre phrase de Sherlock Holmes : « Et depuis cet endroit, s'il vous plaît, parlez le plus en détail possible ! Au stade de cette phrase et de l'histoire ultérieure d'Helen Stoner, le célèbre détective initie une étape préliminaire - la connaissance sensuelle (empirique).

Soit dit en passant, cet épisode nous donne des raisons de comparer deux degrés de cognition : uniquement primaire (empirique) et primaire avec secondaire (théorique). Conan Doyle le fait à l'aide des images des deux personnages principaux.

Comment le médecin militaire à la retraite Watson réagit-il à l'histoire de la jeune fille ? Il se concentre sur la scène émotionnelle, ayant décidé à l'avance que l'histoire de la malheureuse belle-fille était causée par ses soupçons non motivés envers son beau-père.

Deux étapes de la méthode de cognition

Ellen Holmes écoute d'une manière complètement différente. Il perçoit d'abord les informations verbales à l'oreille. Cependant, les informations empiriques ainsi obtenues ne sont pas pour lui le produit final, il en a besoin comme matière première pour un traitement intellectuel ultérieur.

Utilisant habilement les méthodes théoriques de la cognition dans le traitement de chaque grain d'information reçu (dont aucun n'a échappé à son attention), le classique personnage littéraire cherche à résoudre le mystère du crime. De plus, il applique les méthodes théoriques avec brio, avec une sophistication analytique qui fascine les lecteurs. Avec leur aide, il y a une recherche de connexions cachées internes et la définition de ces modèles qui résolvent la situation.

Quelle est la nature des méthodes théoriques de la cognition

Nous nous sommes délibérément tournés vers exemple littéraire. Avec son aide, nous espérons que notre histoire n'a pas commencé de manière impersonnelle.

Il convient de reconnaître que la science, à son niveau actuel, est devenue le principal moteur du progrès précisément en raison de son "ensemble d'outils" - les méthodes de recherche. Tous, comme nous l'avons déjà mentionné, sont divisés en deux grands groupes: empiriques et théoriques. Une caractéristique commune aux deux groupes est le but - la vraie connaissance. Ils diffèrent dans leur approche de la connaissance. Dans le même temps, les scientifiques pratiquant des méthodes empiriques sont appelés praticiens et théoriques - théoriciens.

Nous notons également que souvent les résultats des études empiriques et théoriques ne coïncident pas. C'est la raison de l'existence de deux groupes de méthodes.

L'empirique (du mot grec "empirios" - observation) se caractérise par une perception organisée et déterminée, définie par la tâche de recherche et le domaine. En eux, les scientifiques utilisent les meilleures formes de fixation des résultats.

Le niveau théorique de la cognition se caractérise par le traitement de l'information empirique à l'aide de techniques de formalisation des données et de techniques spécifiques de traitement de l'information.

Pour un scientifique pratiquant des méthodes théoriques de cognition, la capacité à utiliser de manière créative un outil demandé par la méthode optimale est d'une importance primordiale.

Les méthodes empiriques et théoriques ont des caractéristiques génériques communes :

  • le rôle fondamental des différentes formes de pensée : concepts, théories, lois ;
  • pour chacune des méthodes théoriques, la source d'information primaire est la connaissance empirique ;
  • à l'avenir, les données obtenues font l'objet d'un traitement analytique à l'aide d'un appareil conceptuel spécial, la technologie de traitement de l'information qui leur est fournie ;
  • le but, en raison duquel les méthodes théoriques de cognition sont utilisées, est la synthèse d'inférences et de conclusions, le développement de concepts et de jugements à la suite desquels de nouvelles connaissances sont nées.

Ainsi, au stade primaire du processus, le scientifique reçoit des informations sensorielles en utilisant les méthodes de la connaissance empirique :

  • observation (suivi passif et sans interférence des phénomènes et des processus) ;
  • expérience (fixation du passage du processus dans des conditions initiales artificiellement données);
  • mesures (détermination du rapport du paramètre déterminé à la norme généralement acceptée);
  • comparaison (perception associative d'un processus par rapport à un autre).

La théorie comme résultat de la connaissance

Quel type de rétroaction coordonne les méthodes des niveaux théoriques et empiriques de la cognition ? Retour d'information lors du test de la vérité des théories. Au stade théorique, sur la base des informations sensorielles reçues, le problème clé est formulé. Pour le résoudre, des hypothèses sont faites. Les plus optimales et les plus élaborées se transforment en théories.

La fiabilité d'une théorie est testée par sa correspondance avec des faits objectifs (données de la cognition sensorielle) et faits scientifiques(La connaissance est fiable, vérifiée plusieurs fois auparavant pour la vérité.) Pour une telle adéquation, il est important de sélectionner la méthode théorique optimale de cognition. C'est lui qui doit assurer la correspondance maximale du fragment étudié avec la réalité objective et la présentation analytique de ses résultats.

Notions de méthode et de théorie. Leurs points communs et leurs différences

Des méthodes bien choisies fournissent un « moment de vérité » dans la cognition : le développement d'une hypothèse en une théorie. Actualisées, les méthodes scientifiques générales de la connaissance théorique sont remplies des faits nécessaires dans la théorie développée de la connaissance, devenant sa partie intégrante.

Si, cependant, une méthode aussi efficace est artificiellement isolée d'une théorie toute faite et universellement reconnue, alors, après l'avoir considérée séparément, nous constaterons qu'elle a acquis de nouvelles propriétés.

D'une part, il est rempli de connaissances particulières (incorporant les idées de la recherche actuelle), et d'autre part, il acquiert des traits génériques communs d'objets d'étude relativement homogènes. C'est en cela que s'exprime la relation dialectique entre la méthode et la théorie de la connaissance scientifique.

La similitude de leur nature est testée pour la pertinence tout au long de leur existence. Le premier acquiert la fonction de régulation organisationnelle, prescrivant au scientifique un ordre formel de manipulations afin d'atteindre les objectifs de l'étude. Engagées par le scientifique, les méthodes du niveau de connaissance théorique amènent l'objet d'étude au-delà du cadre de la théorie antérieure existante.

La différence entre méthode et théorie s'exprime dans le fait qu'il s'agit de formes différentes de connaissance de la connaissance scientifique.

Si le second exprime l'essence, les lois de l'existence, les conditions de développement, communications internes de l'objet étudié, puis la première oriente le chercheur en lui dictant une « feuille de route de la connaissance » : exigences, principes de transformation du sujet et activité cognitive.

Cela peut être dit d'une autre manière: les méthodes théoriques de la connaissance scientifique s'adressent directement au chercheur, régulant son processus de pensée de manière appropriée, orientant le processus d'obtention de nouvelles connaissances par lui dans la direction la plus rationnelle.

Leur importance dans le développement de la science a conduit à la création de sa branche distincte, qui décrit les outils théoriques du chercheur, appelée méthodologie basée sur des principes épistémologiques (l'épistémologie est la science de la connaissance).

Liste des méthodes théoriques de la cognition

Il est bien connu que pour méthodes théoriques connaissances comprend les options suivantes :

  • la modélisation;
  • formalisation;
  • une analyse;
  • la synthèse;
  • abstraction;
  • induction;
  • déduction;
  • idéalisation.

Bien sûr, les qualifications d'un scientifique sont d'une grande importance dans l'efficacité pratique de chacun d'eux. Un spécialiste averti, après avoir analysé les principales méthodes de connaissances théoriques, choisira la bonne parmi leur totalité. C'est lui qui jouera un rôle clé dans l'efficacité de la cognition elle-même.

Exemple de méthode de modélisation

En mars 1945, sous les auspices du laboratoire balistique (forces armées américaines), les principes de fonctionnement du PC ont été définis. C'était un exemple classique de connaissances scientifiques. Un groupe de physiciens, renforcé par le célèbre mathématicien John von Neumann, a participé à la recherche. Originaire de Hongrie, il était l'analyste principal de cette étude.

Le scientifique susmentionné a utilisé, comme outil de recherche, la méthode de modélisation.

Initialement, tous les dispositifs du futur PC - arithmétique-logique, mémoire, dispositif de contrôle, dispositifs d'entrée et de sortie - existaient verbalement, sous la forme d'axiomes formulés par Neumann.

Le mathématicien a revêtu les données de la recherche physique empirique sous la forme d'un modèle mathématique. À l'avenir, c'est elle, et non son prototype, qui a fait l'objet de recherches par le chercheur. Après avoir reçu le résultat, Neumann l'a "traduit" dans le langage de la physique. Soit dit en passant, le processus de réflexion démontré par le Hongrois a fait une grande impression sur les physiciens eux-mêmes, comme en témoignent leurs commentaires.

A noter qu'il serait plus juste de donner à cette méthode le nom de "modélisation et formalisation". Il ne suffit pas de créer le modèle lui-même, il est tout aussi important de formaliser les relations internes de l'objet à travers le langage de codage. Après tout, c'est ainsi qu'il faut interpréter le modèle informatique.

Aujourd'hui, une telle simulation informatique, qui est réalisée à l'aide de programmes mathématiques spéciaux, est assez courante. Il est largement utilisé en économie, physique, biologie, automobile, radio électronique.

Modélisation informatique moderne

La méthode de simulation informatique comprend les étapes suivantes :

  • définition de l'objet à modéliser, formalisation de l'installation pour la modélisation ;
  • établir un plan d'expériences informatiques avec le modèle ;
  • analyse des résultats.

Il y a la simulation et la modélisation analytique. La modélisation et la formalisation sont dans ce cas un outil universel.

La simulation reflète le fonctionnement du système lorsqu'il effectue séquentiellement un grand nombre d'opérations élémentaires. La modélisation analytique décrit la nature d'un objet à l'aide de systèmes de contrôle différentiel qui ont une solution qui reflète l'état idéal de l'objet.

En plus des mathématiques, ils distinguent également:

  • la modélisation conceptuelle (par les symboles, les opérations entre eux et les langages, formels ou naturels) ;
  • modélisation physique (objet et modèle - objets réels ou phénomènes)
  • structurel-fonctionnel (graphiques, diagrammes, tableaux sont utilisés comme modèle).

abstraction

La méthode d'abstraction aide à comprendre l'essence de la question à l'étude et à résoudre des problèmes très complexes. Il permet, en écartant tout ce qui est secondaire, de se concentrer sur les détails fondamentaux.

Par exemple, si nous nous tournons vers la cinématique, il devient évident que les chercheurs utilisent cette méthode particulière. Ainsi, il était à l'origine distingué comme mouvement primaire, rectiligne et uniforme (par une telle abstraction, il était possible d'isoler les paramètres de base du mouvement : temps, distance, vitesse.)

Cette méthode implique toujours une certaine généralisation.

Soit dit en passant, la méthode théorique opposée de cognition s'appelle la concrétisation. En l'utilisant pour étudier les changements de vitesse, les chercheurs ont proposé une définition de l'accélération.

Analogie

La méthode d'analogie est utilisée pour formuler des idées fondamentalement nouvelles en trouvant des analogues à des phénomènes ou des objets (dans ce cas, les analogues sont à la fois des objets idéaux et réels qui ont une correspondance adéquate avec les phénomènes ou objets étudiés.)

Un exemple de l'utilisation efficace de l'analogie peut être des découvertes bien connues. Charles Darwin, prenant comme base le concept évolutionniste de la lutte pour les moyens de subsistance des pauvres avec les riches, a créé la théorie évolutionniste. Niels Bohr dessine sur la structure planétaire système solaire, a étayé le concept de la structure orbitale de l'atome. J. Maxwell et F. Huygens ont créé la théorie des oscillations électromagnétiques ondulatoires, en utilisant, comme analogue, la théorie des oscillations mécaniques ondulatoires.

La méthode par analogie devient pertinente lorsque les conditions suivantes sont remplies :

  • autant de caractéristiques essentielles que possible doivent se ressembler;
  • un échantillon suffisamment large de caractéristiques connues doit en fait être associé à une caractéristique inconnue ;
  • l'analogie ne doit pas être interprétée comme une similitude identique;
  • il est également nécessaire de considérer les différences fondamentales entre le sujet d'étude et son analogue.

Notez que cette méthode est le plus souvent et fructueusement utilisée par les économistes.

Analyse - synthèse

L'analyse et la synthèse trouvent leur application aussi bien dans la recherche scientifique que dans l'activité mentale ordinaire.

Le premier est le processus de décomposer mentalement (le plus souvent) l'objet à l'étude en ses composants pour une étude plus complète de chacun d'eux. Cependant, l'étape d'analyse est suivie de l'étape de synthèse, lorsque les composants étudiés sont combinés entre eux. Dans ce cas, toutes les propriétés révélées lors de leur analyse sont prises en compte puis leurs relations et modes de connexion sont déterminés.

L'utilisation complexe de l'analyse et de la synthèse est caractéristique des connaissances théoriques. Ce sont ces méthodes dans leur unité et leur opposition que le philosophe allemand Hegel a posées au fondement de la dialectique qui, selon ses mots, « est l'âme de toute connaissance scientifique ».

Induction et déduction

Lorsque le terme "méthodes d'analyse" est utilisé, il s'agit le plus souvent de déduction et d'induction. Ce sont des méthodes logiques.

La déduction implique le cours du raisonnement, allant du général au particulier. Cela nous permet de dégager certaines conséquences du contenu général de l'hypothèse qui peuvent être justifiées empiriquement. Ainsi, la déduction se caractérise par l'établissement d'un lien commun.

Sherlock Holmes, que nous avons mentionné au début de cet article, a très clairement étayé sa méthode déductive dans l'histoire "The Land of Crimson Clouds": "La vie est une connexion sans fin de causes et d'effets. Par conséquent, nous pouvons le connaître en examinant un lien après l'autre. Le célèbre détective a recueilli le plus d'informations possible, choisissant la plus significative parmi les nombreuses versions.

Continuant à caractériser les méthodes d'analyse, caractérisons l'induction. C'est la formulation d'une conclusion générale à partir d'une série de conclusions particulières (du particulier au général.) Distinguer entre induction complète et incomplète. L'induction complète est caractérisée par le développement d'une théorie et d'hypothèses incomplètes. L'hypothèse, comme vous le savez, doit être mise à jour en prouvant. Ce n'est qu'alors que cela devient une théorie. L'induction, en tant que méthode d'analyse, est largement utilisée en philosophie, en économie, en médecine et en jurisprudence.

Idéalisation

Souvent, dans la théorie de la connaissance scientifique, des concepts idéaux qui n'existent pas dans la réalité sont utilisés. Les chercheurs confèrent aux objets non naturels des propriétés spéciales et limitantes, qui ne sont possibles que dans des cas «limitants». Des exemples sont une ligne droite, un point matériel, un gaz parfait. Ainsi, la science distingue certains objets du monde objectif qui se prêtent entièrement à la description scientifique, dépourvus de propriétés secondaires.

La méthode d'idéalisation, en particulier, a été appliquée par Galilée, qui a remarqué que si toutes les forces externes agissant sur un objet en mouvement sont supprimées, il continuera à se déplacer indéfiniment, de manière rectiligne et uniforme.

Ainsi, l'idéalisation permet en théorie d'obtenir un résultat inaccessible dans la réalité.

Cependant, en réalité, pour ce cas, le chercheur prend en compte : la hauteur de l'objet qui tombe au-dessus du niveau de la mer, la latitude du point d'impact, l'effet du vent, la densité de l'air, etc.

La formation des méthodologistes comme la tâche la plus importante de l'éducation

Aujourd'hui, le rôle des universités dans la formation de spécialistes qui maîtrisent de manière créative les méthodes de la connaissance empirique et théorique devient évident. Dans le même temps, comme en témoigne l'expérience des universités de Stanford, Harvard, Yale et Columbia, elles se voient attribuer un rôle de premier plan dans le développement des dernières technologies. C'est peut-être pour cette raison que leurs diplômés sont recherchés dans les entreprises à forte intensité scientifique, dont la part a tendance à augmenter constamment.

Un rôle important dans la formation des chercheurs est joué par :

  • flexibilité du programme éducatif;
  • la possibilité d'une formation individuelle pour les étudiants les plus talentueux capables de devenir de jeunes scientifiques prometteurs.

Dans le même temps, la spécialisation des personnes qui développent des connaissances humaines dans le domaine de l'informatique, sciences de l'ingénieur, la production, la modélisation mathématique nécessite la présence d'enseignants ayant les qualifications requises.

Conclusion

Les exemples de méthodes de connaissances théoriques mentionnés dans l'article donnent une idée générale du travail créatif des scientifiques. Leur activité se réduit à la formation d'une réflexion scientifique sur le monde.

Elle consiste, dans un sens plus étroit et spécial, en l'utilisation habile d'une certaine méthode scientifique.
Le chercheur résume des faits empiriques prouvés, propose et teste des hypothèses scientifiques, formule une théorie scientifique qui fait progresser la connaissance humaine de la détermination du connu à la compréhension de l'inconnu auparavant.

Parfois, la capacité des scientifiques à utiliser la théorie Méthodes scientifiques ressemble à de la magie. Même des siècles plus tard, personne ne doute du génie de Léonard de Vinci, Nikola Tesla, Albert Einstein.

En science, il existe des niveaux de recherche empirique et théorique. empirique la recherche est dirigée directement vers l'objet à l'étude et est réalisée par l'observation et l'expérimentation. théorique la recherche se concentre sur la généralisation des idées, des hypothèses, des lois, des principes. Les données de la recherche tant empirique que théorique sont enregistrées sous la forme d'énoncés contenant des termes empiriques et théoriques. Les termes empiriques sont inclus dans des énoncés dont la véracité peut être vérifiée dans une expérience. Telle est, par exemple, la déclaration: "La résistance d'un conducteur donné augmente lorsqu'il est chauffé de 5 à 10 ° C." La vérité des énoncés contenant des termes théoriques ne peut être établie expérimentalement. Pour confirmer la véracité de l'affirmation "La résistance des conducteurs augmente lorsqu'ils sont chauffés de 5 à 10 ° C", il faudrait réaliser un nombre infini d'expériences, ce qui est en principe impossible. "Résistance d'un conducteur donné" est un terme empirique, un terme d'observation. "Résistance des conducteurs" est un terme théorique, un concept obtenu à la suite d'une généralisation. Les déclarations avec des concepts théoriques sont invérifiables, mais elles sont, selon Popper, falsifiables.

La caractéristique la plus importante de la recherche scientifique est le chargement mutuel de données empiriques et théoriques. En principe, il est impossible de séparer les faits empiriques et théoriques de manière absolue. Dans l'énoncé ci-dessus avec un terme empirique, les concepts de température et de nombre ont été utilisés, et ce sont des concepts théoriques. Celui qui mesure la résistance des conducteurs comprend ce qui se passe car il a des connaissances théoriques. D'autre part, connaissance théorique sans données expérimentales, ils n'ont aucune force scientifique, ils se transforment en spéculations sans fondement. La cohérence, le chargement mutuel de l'empirique et de la théorie est la caractéristique la plus importante de la science. Si l'accord harmonique spécifié est violé, alors afin de le restaurer, une recherche de nouveaux concepts théoriques commence. Bien entendu, les données expérimentales sont également affinées dans ce cas. Considérons, à la lumière de l'unité de l'empirique et du théorique, les principales méthodes de recherche empirique.

Expérience- le cœur de la recherche empirique. mot latin"experimentum" signifie littéralement essai, expérience. Une expérience est une approbation, un test des phénomènes étudiés dans des conditions contrôlées et contrôlées. L'expérimentateur cherche à isoler le phénomène étudié dans sa forme pure, afin qu'il y ait le moins d'obstacles possible pour obtenir l'information souhaitée. La mise en place de l'expérience est précédée de la travail préparatoire. Un programme expérimental est en cours d'élaboration; si nécessaire, des appareils spéciaux et des équipements de mesure sont fabriqués; la théorie est raffinée, qui agit comme un outil nécessaire pour l'expérience.

Les composantes de l'expérience sont : l'expérimentateur ; le phénomène à l'étude; appareils électroménagers. Dans le cas des appareils nous parlons il ne s'agit pas d'appareils techniques tels que des ordinateurs, des micro- et des télescopes, conçus pour améliorer les capacités sensorielles et rationnelles d'une personne, mais d'appareils détecteurs, des appareils intermédiaires qui enregistrent des données expérimentales et sont directement influencés par les phénomènes étudiés. Comme vous pouvez le voir, l'expérimentateur est "tout armé", de son côté, entre autres, expérience professionnelle et, surtout, la maîtrise de la théorie. Dans les conditions modernes, l'expérience est le plus souvent menée par un groupe de chercheurs qui agissent de concert, mesurant leurs efforts et leurs capacités.

Le phénomène à l'étude est placé dans l'expérience dans des conditions où il réagit aux dispositifs de détection (s'il n'y a pas de dispositif de détection spécial, alors les organes sensoriels de l'expérimentateur lui-même agissent en tant que tels: ses yeux, ses oreilles, ses doigts). Cette réaction dépend de l'état et des caractéristiques de l'appareil. En raison de cette circonstance, l'expérimentateur ne peut pas obtenir d'informations sur le phénomène étudié en tant que tel, c'est-à-dire isolé de tous les autres processus et objets. Ainsi, les moyens d'observation participent à la constitution des données expérimentales. En physique, ce phénomène est resté inconnu jusqu'aux expériences dans le domaine de la physique quantique, et sa découverte dans les années 20-30 du XXe siècle. faisait sensation. Pendant longtemps, l'explication de N. Bora selon laquelle les moyens d'observation affectent les résultats de l'expérience, a été pris avec hostilité. Les adversaires de Bohr pensaient que l'expérience pouvait être nettoyée de l'influence perturbatrice de l'appareil, mais cela s'est avéré impossible. La tâche du chercheur n'est pas de présenter l'objet en tant que tel, mais d'expliquer son comportement dans toutes les situations possibles.

Il convient de noter que dans les expériences sociales, la situation n'est pas simple non plus, car les sujets réagissent aux sentiments, aux pensées et au monde spirituel du chercheur. En résumant les données expérimentales, le chercheur ne doit pas faire abstraction de sa propre influence, à savoir, en tenant compte de celle-ci, être capable d'identifier le général, l'essentiel.

Les données de l'expérience doivent d'une manière ou d'une autre être transmises à des récepteurs humains connus, par exemple, cela se produit lorsque l'expérimentateur lit les lectures d'instruments de mesure. L'expérimentateur a la possibilité et en même temps est obligé d'utiliser ses (toutes ou certaines) formes inhérentes de cognition sensorielle. Or, la cognition sensorielle n'est qu'un des moments d'un processus cognitif complexe mené par l'expérimentateur. La connaissance empirique ne se réduit pas à la connaissance sensorielle.

Parmi les méthodes de connaissance empirique sont souvent appelées observation qui s'oppose même parfois à la méthode d'expérimentation. Cela ne signifie pas l'observation en tant qu'étape d'une expérience, mais l'observation en tant que manière spéciale et holistique d'étudier les phénomènes, l'observation des processus astronomiques, biologiques, sociaux et autres. La différence entre l'expérimentation et l'observation se résume essentiellement à un point : dans l'expérimentation, ses conditions sont contrôlées, tandis que dans l'observation, les processus sont laissés au cours naturel des événements. D'un point de vue théorique, la structure de l'expérience et de l'observation est la même : le phénomène étudié - le dispositif - l'expérimentateur (ou observateur). Par conséquent, comprendre une observation n'est pas très différent de comprendre une expérience. L'observation peut très bien être considérée comme une sorte d'expérience.

Une possibilité intéressante de développer la méthode d'expérimentation est la soi-disant expérimentation modèle. Parfois, ils expérimentent non pas sur l'original, mais sur son modèle, c'est-à-dire sur une autre entité similaire à l'original. Le modèle peut être physique, mathématique ou d'une autre nature. Il est important que des manipulations avec celui-ci permettent de transmettre les informations reçues à l'original. Ce n'est pas toujours possible, mais seulement lorsque les propriétés du modèle sont pertinentes, c'est-à-dire qu'elles correspondent réellement aux propriétés de l'original. Une correspondance complète entre les propriétés du modèle et l'original n'est jamais atteinte, et pour une raison très simple : le modèle n'est pas l'original. Comme le plaisantaient A. Rosenbluth et N. Wiener, un autre chat serait le meilleur modèle matériel d'un chat, mais il serait préférable que ce soit exactement le même chat. L'une des significations de la blague est la suivante: il est impossible d'acquérir des connaissances aussi complètes sur le modèle que dans le processus d'expérimentation de l'original. Mais parfois on peut se contenter d'un succès partiel, surtout si l'objet étudié est inaccessible à une expérience non modèle. Les hydroconstructeurs, avant de construire un barrage sur une rivière orageuse, mèneront une expérience modèle dans l'enceinte de leur institut natal. Quant à la modélisation mathématique, elle permet relativement rapidement de "perdre" diverses possibilités développement des procédés étudiés. Modélisation mathématique- une méthode qui se situe à l'intersection de l'empirique et du théorique. Il en va de même pour les soi-disant expériences de pensée, lorsque des situations possibles et leurs conséquences sont envisagées.

Les mesures sont le point le plus important de l'expérience, elles permettent d'obtenir des données quantitatives. Lors de la mesure, des caractéristiques qualitativement identiques sont comparées. Nous sommes ici devant une situation tout à fait typique de la recherche scientifique. Le processus de mesure lui-même est sans aucun doute une opération expérimentale. Mais ici l'établissement de la similitude qualitative des caractéristiques comparées dans le processus de mesure appartient déjà au niveau théorique de la connaissance. Pour choisir une unité de grandeur standard, il est nécessaire de savoir quels phénomènes sont équivalents les uns aux autres ; dans ce cas, la préférence sera donnée à la norme applicable au plus grand nombre possible de processus. La longueur était mesurée par les coudes, les pieds, les pas, le mètre en bois, le mètre en platine, et maintenant ils sont guidés par les longueurs d'onde des ondes électromagnétiques dans le vide. Le temps était mesuré par le mouvement des astres, la Terre, la Lune, le pouls, les pendules. Maintenant, le temps est mesuré conformément à la norme acceptée de la seconde. Une seconde est égale à 9 192 631 770 périodes de rayonnement de la transition correspondante entre deux niveaux spécifiques de la structure hyperfine de l'état fondamental de l'atome de césium. Tant dans le cas de la mesure des longueurs que dans le cas de la mesure du temps physique, les oscillations électromagnétiques ont été choisies comme normes de mesure. Ce choix s'explique par le contenu de la théorie, à savoir l'électrodynamique quantique. Comme vous pouvez le voir, la mesure est théoriquement chargée. La mesure ne peut être effectuée efficacement qu'une fois que le sens de ce qui est mesuré et comment est compris. Pour mieux expliquer l'essence du processus de mesure, considérons la situation avec l'évaluation des connaissances des élèves, par exemple, sur une échelle de dix points.

L'enseignant parle à de nombreux élèves et leur donne des notes - 5 points, 7 points, 10 points. Les élèves répondent à des questions différentes, mais l'enseignant apporte toutes les réponses "sous un dénominateur commun". Si la personne qui a réussi l'examen informe quelqu'un de sa note, alors à partir de ce information brève il est impossible d'établir quel était le sujet de la conversation entre le professeur et l'élève. Pas intéressé par les spécificités des commissions d'examens et de bourses. La mesure et l'évaluation des connaissances des élèves est un cas particulier de ce processus, fixe des gradations quantitatives uniquement dans le cadre d'une qualité donnée. L'enseignant "apporte" différentes réponses d'étudiants sous la même qualité, et seulement ensuite établit la différence. 5 et 7 points étant donné que les points sont équivalents, dans le premier cas ces points sont simplement inférieurs à ceux du second. L'enseignant, évaluant les connaissances des étudiants, part de ses idées sur l'essence de cette discipline académique. L'élève sait aussi généraliser, il compte mentalement ses échecs et ses réussites. En fin de compte, cependant, l'enseignant et l'élève peuvent arriver à des conclusions différentes. Pourquoi? Tout d'abord, du fait que l'élève et l'enseignant appréhendent inégalement la question de l'évaluation des connaissances, ils généralisent tous les deux, mais l'un d'eux est meilleur dans cette opération mentale. La mesure, comme déjà noté, est théoriquement chargée.

Résumons ce qui précède. Mesurer A et B implique : a) d'établir l'identité qualitative de A et B ; b) l'introduction d'une unité de grandeur (seconde, mètre, kilogramme, point) ; c) l'interaction de A et B avec un dispositif qui a la même caractéristique qualitative que A et B ; d) lire les lectures de l'instrument. Ces règles de mesure sont utilisées dans l'étude des processus physiques, biologiques et sociaux. Dans le cas des processus physiques, l'appareil de mesure est souvent un appareil technique bien défini. Ce sont des thermomètres, des voltmètres, des horloges à quartz. Dans le cas des processus biologiques et sociaux, la situation est plus compliquée - conformément à leur nature systémique-symbolique. Sa signification supraphysique signifie que le dispositif doit aussi avoir cette signification. Mais les dispositifs techniques n'ont qu'une nature physique, et non une nature symbolique du système. Si tel est le cas, ils ne conviennent pas à la mesure directe des caractéristiques biologiques et sociales. Mais ces derniers sont mesurables, et ils sont effectivement mesurés. Outre les exemples déjà cités, le mécanisme du marché monétaire-marchandise, au moyen duquel la valeur des marchandises est mesurée, est très révélateur à cet égard. Il n'existe pas un tel dispositif technique qui ne mesurerait pas directement le coût des marchandises, mais indirectement, en tenant compte de toutes les activités des acheteurs et des vendeurs, cela peut être fait.

Après avoir analysé le niveau empirique de la recherche, nous devons considérer le niveau théorique de la recherche qui lui est organiquement associé.