Wartość metod statystycznych. Praca pisemna

Przedmiot nauk statystycznych

Rola i znaczenie statystyki jako nauki

Statystyka to dziedzina działalności człowieka, której celem jest zbieranie, przetwarzanie i analizowanie danych z rachunkowości gospodarczej. Sama statystyka jest jednym z rodzajów rachunkowości (księgowej i operacyjno-technicznej).

Statystyka jako nauka pojawiła się po raz pierwszy w Chinach w V wieku pne, kiedy to konieczne stało się obliczenie ziem państwowych, skarbca, ludności itp. Związany z narodzinami państwa. Statystyka uzyskała dalszy rozwój w okresie formowania się kapitalizmu: fabryki, fabryki, rolnictwo, handel zagraniczny itp. Statystyka przeszła głębokie zmiany zarówno w latach socjalizmu, jak i obecnie. Podstawy rozwoju technik, metod były warunkiem wstępnym rozwoju sektora publicznego i prywatnego.

Termin ten został wprowadzony do nauki przez Niemców. naukowiec Gottfried Achenwahl, który w 1746 roku zaczął czytać w Marbuku, a następnie na Uniwersytecie w Goettengen nową dyscyplinę, którą nazwał „statystyką”.

Masowe ekwiwalenty społeczne. zjawiska

· Wskaźniki wydajności biznesowej

Przedmiot statystyki to badanie zjawisk społecznych, dynamiki i kierunku ich rozwoju. Za pomocą wskaźników statystycznych nauka ta określa ilościową stronę zjawiska społecznego, obserwuje wzorce przejścia ilości w jakość na przykładzie danego zjawiska społecznego i na podstawie tych obserwacji analizuje dane uzyskane w określonych warunkach miejsca i czasu. Statystyka bada zjawiska i procesy społeczno-ekonomiczne, które są masowe, bada wiele czynników, które je determinują.

METODY STATYSTYCZNE - naukowe metody opisu i badania zjawisk masowych, które pozwalają na wyrażenie ilościowe (liczbowe).

Metody statystyczne obejmują zarówno zasady eksperymentalne, jak i teoretyczne. Statystyki pochodzą przede wszystkim z doświadczenia;

Statystyczne metody analizy danych są stosowane niemal we wszystkich obszarach działalności człowieka. Stosuje się je zawsze wtedy, gdy zachodzi potrzeba uzyskania i uzasadnienia jakichkolwiek sądów o grupie (przedmiotach lub podmiotach) o pewnej wewnętrznej heterogeniczności.

Wskazane jest wyróżnienie trzech typów działalności naukowej i stosowanej w zakresie statystycznych metod analizy danych (według stopnia specyficzności metod związanych z zanurzeniem w konkretnych problemach):

a) opracowywanie i badanie metod ogólnego przeznaczenia, bez uwzględnienia specyfiki dziedziny zastosowania;

b) opracowywanie i badanie modeli statystycznych rzeczywistych zjawisk i procesów zgodnie z potrzebami określonej dziedziny działalności;

c) zastosowanie metod i modeli statystycznych do analizy statystycznej określonych danych.

Zbiór różnych metod tworzy metodologię statystyczną.

Metoda etapu badań ekonomicznych i statycznych

podsumowanie i przetwarzanie statystyczne

Wystarczająco szczegółowe w literaturze krajowej. Tymczasem w praktyce rosyjskich przedsiębiorstw stosuje się tylko niektóre z nich. Rozważ następne metody obróbki statystycznej.

Informacje ogólne

W praktyce przedsiębiorstw krajowych jest to przeważnie powszechne metody kontroli statystycznej. Jeśli mówimy o regulacji procesu technologicznego, to jest to zauważane niezwykle rzadko. Zastosowanie metod statystycznych stanowi, że w przedsiębiorstwie tworzy się zespół specjalistów posiadających odpowiednie kwalifikacje.

Oznaczający

Według ISO ser. 9000, dostawca musi określić zapotrzebowanie na metody statystyczne, które są stosowane w procesie opracowywania, regulacji i weryfikacji możliwości procesu produkcyjnego oraz charakterystyki wyrobów. Stosowane metody opierają się na rachunku prawdopodobieństwa i obliczeniach matematycznych. Statystyczne metody analizy danych można wdrożyć na każdym etapie cyklu życia produktu. Pozwalają ocenić i opisać stopień heterogeniczności produktów lub zmienność ich właściwości w stosunku do ustalonych nazw lub wymaganych wartości, a także zmienność procesu ich powstawania. Metody statystyczne są metody, za pomocą których można ocenić stan badanych zjawisk z określoną dokładnością i wiarygodnością. Pozwalają przewidzieć pewne problemy, wypracować optymalne rozwiązania w oparciu o zbadane fakty, trendy i wzorce.

Wskazówki użycia

Główne obszary, w których są powszechne metody statystyczne są:


Praktyka krajów rozwiniętych

Metody statystyczne są baza zapewniająca tworzenie produktów o wysokich właściwościach konsumenckich. Techniki te są szeroko stosowane w krajach uprzemysłowionych. Metody statystyczne są w istocie gwarancją, że konsumenci otrzymują produkty spełniające ustalone wymagania. Efekt ich stosowania został udowodniony w praktyce przedsiębiorstw przemysłowych w Japonii. To oni przyczynili się do osiągnięcia najwyższego poziomu produkcji w tym kraju. Wieloletnie doświadczenia innych krajów pokazują, jak skuteczne są te techniki. W szczególności wiadomo, że Hewlelt Packard, stosując metody statystyczne, był w stanie zmniejszyć liczbę małżeństw miesięcznie z 9 000 do 45 jednostek w jednym z przypadków.

Trudności wdrożeniowe

W praktyce domowej istnieje szereg przeszkód, które nie pozwalają na użycie statystyczne metody badań wskaźniki. Trudności wynikają z:


Rozwój programu

Trzeba powiedzieć, że określenie zapotrzebowania na określone metody statystyczne w zakresie jakości, wybór, opanowanie określonych technik jest dość skomplikowaną i długotrwałą pracą dla każdego przedsiębiorstwa krajowego. W celu jego skutecznej realizacji wskazane jest opracowanie specjalnego programu długoterminowego. Powinna przewidywać utworzenie służby, której zadaniem będzie m.in. organizacja i kierownictwo metodyczne stosowania metod statystycznych. W ramach programu należy zapewnić wyposażenie w odpowiednie środki techniczne, przeszkolenie specjalistów oraz określenie składu zadań produkcyjnych, które należy rozwiązać wybranymi metodami. Mastering zaleca się rozpocząć od stosowania najprostszych podejść. Na przykład możesz użyć dobrze znanej produkcji elementarnej. Następnie wskazane jest przejście do innych metod. Na przykład może to być analiza wariancji, selektywne przetwarzanie informacji, regulacja procesów, planowanie badań i eksperymentów czynnikowych itp.

Klasyfikacja

Statystyczne metody analizy ekonomicznej obejmują różne sztuczki. Nie trzeba dodawać, że jest ich całkiem sporo. Jednak czołowy ekspert w dziedzinie zarządzania jakością w Japonii, K. Ishikawa, zaleca stosowanie siedmiu podstawowych metod:

  1. Wykresy Pareto.
  2. Grupowanie informacji według wspólnych cech.
  3. Karty kontrolne.
  4. Diagramy przyczynowo-skutkowe.
  5. Histogramy.
  6. Arkusze kontrolne.
  7. Wykresy punktowe.

Opierając się na własnym doświadczeniu w dziedzinie zarządzania, Ishikawa twierdzi, że 95% wszystkich spraw i problemów w przedsiębiorstwie można rozwiązać za pomocą tych siedmiu podejść.

Wykres Pareto

Ten opiera się na pewnym stosunku. Nazwano ją „zasadą Pareto”. Według niego na 20% przyczyn pojawia się 80% skutków. w wizualnej i zrozumiałej formie pokazuje względny wpływ każdej okoliczności na ogólny problem w porządku malejącym. Wpływ ten można zbadać na podstawie liczby strat, usterek, wywołanych przez każdą przyczynę. Względny wpływ ilustrują słupki, skumulowany wpływ czynników skumulowaną linią prostą.

diagram przyczynowo-skutkowy

Na nim badany problem jest konwencjonalnie przedstawiony w postaci poziomej prostej strzałki, a warunki i czynniki, które pośrednio lub bezpośrednio na niego wpływają, mają postać ukośnych strzałek. Podczas budowy należy wziąć pod uwagę nawet pozornie nieistotne okoliczności. Wynika to z faktu, że w praktyce dość często zdarzają się przypadki, w których rozwiązanie problemu zapewnia wykluczenie kilku pozornie nieistotnych czynników. Przyczyny wpływające na główne okoliczności (pierwszego i kolejnych rzędów) przedstawiono na diagramie za pomocą poziomych krótkich strzałek. Szczegółowy schemat będzie miał postać szkieletu ryby.

Informacje o grupowaniu

Ten metoda ekonomiczno-statystyczna służy do organizowania zestawu wskaźników, które zostały uzyskane przez ocenę i pomiar jednego lub więcej parametrów obiektu. Z reguły informacje takie prezentowane są w postaci nieuporządkowanego ciągu wartości. Mogą to być wymiary liniowe przedmiotu obrabianego, temperatura topnienia, twardość materiału, liczba defektów i tak dalej. Na podstawie takiego systemu trudno jest wyciągać wnioski na temat właściwości produktu czy procesów jego powstawania. Zamawianie odbywa się za pomocą wykresów liniowych. Wyraźnie pokazują zmiany obserwowanych parametrów w pewnym okresie.

Arkusz kontrolny

Z reguły przedstawia się ją w postaci tabeli rozkładów częstości występowania zmierzonych wartości parametrów obiektu w odpowiednich przedziałach. Listy kontrolne są opracowywane w zależności od celu badania. Zakres wartości wskaźnika podzielony jest na równe przedziały. Ich liczbę wybiera się zwykle jako pierwiastek kwadratowy z liczby wykonanych pomiarów. Formularz powinien być prosty, aby wyeliminować problemy podczas wypełniania, czytania, sprawdzania.

wykres słupkowy

Przedstawiony jest w postaci schodkowego wielokąta. Wyraźnie ilustruje rozkład wskaźników pomiarowych. Zakres ustawionych wartości jest podzielony na równe przedziały, które są wykreślane wzdłuż osi x. Dla każdego przedziału budowany jest prostokąt. Jej wysokość jest równa częstotliwości występowania wartości w danym przedziale.

Wykresy rozrzutu

Stosuje się je przy testowaniu hipotezy o związku dwóch zmiennych. Model jest zbudowany w następujący sposób. Wartość jednego parametru nanoszona jest na oś odciętych, a wartość innego wskaźnika na rzędną. W rezultacie na wykresie pojawia się kropka. Czynności te są powtarzane dla wszystkich wartości zmiennych. Jeśli istnieje związek, pole korelacji jest rozszerzone, a kierunek nie będzie pokrywał się z kierunkiem osi y. Jeśli nie ma ograniczenia, będzie równoległa do jednej z osi lub będzie miała kształt koła.

Karty kontrolne

Stosuje się je przy ocenie procesu w określonym okresie. Tworzenie kart kontrolnych opiera się na następujących postanowieniach:

  1. Wszystkie procesy z czasem odbiegają od zadanych parametrów.
  2. Niestabilny przebieg zjawiska nie zmienia się przypadkowo. Odchylenia wykraczające poza granice oczekiwanych granic nie są przypadkowe.
  3. Indywidualne zmiany można przewidzieć.
  4. Stabilny proces może losowo odchylać się w oczekiwanych granicach.

Zastosowanie w praktyce rosyjskich przedsiębiorstw

Należy stwierdzić, że doświadczenia krajowe i zagraniczne wskazują, że najskuteczniejszą metodą statystyczną oceny stabilności i dokładności urządzeń oraz procesów technologicznych jest zestawienie kart kontrolnych. Metodę tę stosuje się również w regulacji mocy potencjału produkcyjnego. Podczas konstruowania map konieczne jest prawidłowe wybranie badanego parametru. Zaleca się preferowanie tych wskaźników, które są bezpośrednio związane z przeznaczeniem produktu, które można łatwo zmierzyć i na które można wpływać poprzez kontrolę procesu. Jeżeli taki wybór jest trudny lub nieuzasadniony, możliwa jest ocena wartości skorelowanych (powiązanych) z kontrolowanym parametrem.

Niuanse

Jeżeli pomiar wskaźników z dokładnością wymaganą do odwzorowania według kryterium ilościowego nie jest ekonomicznie lub technicznie możliwy, stosuje się znak alternatywny. Kojarzone są z nim terminy takie jak „małżeństwo” i „wada”. Przez to ostatnie rozumie się każdą odrębną niezgodność produktu z ustalonymi wymaganiami. Małżeństwo jest produktem, którego dostarczanie konsumentom jest niedozwolone z powodu występowania w nim wad.

Osobliwości

Każdy typ karty ma swoją specyfikę. Należy to wziąć pod uwagę przy ich doborze do konkretnego przypadku. Mapy według kryteriów ilościowych są uważane za bardziej wrażliwe na zmiany procesu niż te, które wykorzystują alternatywną cechę. Te pierwsze są jednak bardziej pracochłonne. Stosowane są do:

  1. Debugowanie procesu.
  2. Ocena możliwości wprowadzenia technologii.
  3. Sprawdzanie dokładności sprzętu.
  4. Definicje tolerancji.
  5. Odwzorowania kilku prawidłowych sposobów tworzenia produktu.

Dodatkowo

Jeżeli zaburzenie procesu różni się o przesunięcie kontrolowanego parametru, konieczne jest zastosowanie X-map. W przypadku wzrostu rozrzutu wartości należy wybrać modele R lub S. Należy jednak wziąć pod uwagę szereg cech. W szczególności wykorzystanie wykresów S pozwoli na dokładniejsze i szybsze ustalenie nieporządku procesu niż modele z tymi samymi modelami R. Jednocześnie konstrukcja tych ostatnich nie wymaga skomplikowanych obliczeń.

Wniosek

W ekonomii możliwe jest zbadanie czynników, które znajdują się w trakcie oceny jakościowej, w przestrzeni i dynamice. Można je wykorzystać do wykonywania obliczeń predykcyjnych. Statystyczne metody analizy ekonomicznej nie obejmują metod oceny związków przyczynowo-skutkowych procesów i zdarzeń gospodarczych, identyfikowania obiecujących i niewykorzystanych rezerw na poprawę wyników. Innymi słowy, rozważane podejścia nie obejmują technik czynnikowych.

TEMAT 2. OBSERWACJA STATYSTYCZNA LUDNOŚCI

2.1. Znaczenie metod statystycznych w badaniach populacji

2.2. Głównym źródłem danych o ludności są spisy powszechne

2.3. Inne źródła informacji o populacji

2.4. Praktyczne wykorzystanie wiedzy o populacji w makroekonomii i na rynku konsumenckim.

Populacja to zbiór ludzi. Wielkość populacji jest określana przez liczbę ludności. Po ustaleniu tej liczby otrzymujemy pierwsze wyobrażenie o kraju.

Dalsze badanie populacji oznacza badanie jej struktury. Opis populacji poprzez zebranie cech każdej jednostki populacji i jest cechą statystycznej obserwacji populacji.

Wśród metod statystycznej obserwacji ludności najbardziej rozpowszechnione są spisy ludności, bieżąca rejestracja naturalnego ruchu ludności i jej migracji, badania reprezentacyjne i anamnestyczne, stosowanie spisów i materiałów księgowych, wprowadzenie rejestrów i zautomatyzowanych populacji banki danych.

Dane z tych źródeł są wykorzystywane do różnych celów i nie mogą się wzajemnie zastępować. Jednocześnie zachodzi między nimi ścisła zależność: każde źródło uzupełnia lub kontynuuje drugie, dlatego ważne jest, aby przy opracowywaniu programów monitoringu zapewnić wzajemną koordynację odpowiednich wskaźników.

Teoretyczne poglądy na prawa ruchu ludności rozwijały się do końca XIX wieku. Już to w ramach teorii ekonomicznych (ekonomii politycznej), już to w ramach socjologii badanie wzorców procesów demograficznych niezmiennie przebiegało zgodnie ze statystyką, co czasami dawało i nadal daje powód do uznania demografii za tożsamą z statystyki ludności i odmawiają jej prawa do niezależnego istnienia jako nauki. Historycznie ludność była pierwszym przedmiotem rachunkowości statystycznej, a zjawiska demograficzne - obszarem, w którym statystyka rozwinęła się jako nauka o metodach ilościowego badania zjawisk masowych.

Jak podkreśla M. V. Ptukha, liczba mieszkańców i gęstość zaludnienia dały ogólnie poprawne wyobrażenie o bogactwie i potędze kraju oraz o poziomie rozwoju jego sił wytwórczych.

Zjawiska demograficzne to zjawiska masowe. Ludność, jak wynika z samej definicji tego pojęcia, jest zbiorem ludzi. Na procesy demograficzne składa się wiele indywidualnych przypadków narodzin, małżeństwa, zmiany miejsca zamieszkania, śmierci. Jednak w sensie statystycznym ich masywność nie wynika z mnóstwa pojedynczych przypadków, z których się składają, ale z faktu, że w zjawiskach tych występuje kombinacja koniecznego i przypadkowego, istnieje kombinacja przyczyn, które tworzą odmiana znaków.


Poszczególne przyczyny nie pozwalają w każdym indywidualnym przypadku ujawnić ogólnej prawidłowości procesu demograficznego, uchwycić tkwiącą w nim konieczność. Przejawia się to tylko w masie przypadków, gdy wpływ poszczególnych, przypadkowych przyczyn wzajemnie się znosi. „Przede wszystkim — pisał A. Quetelet — musimy odłożyć na bok człowieka wziętego oddzielnie i uważać go jedynie za część rodzaju ludzkiego. Odwracając uwagę od jego indywidualności, wykluczamy wszystko, co przypadkowe; cechy indywidualne, które mają bardzo mały lub żaden wpływ na masy, same się wygładzą i pozwolą na wyciągnięcie ogólnych wniosków. 2

Regularność masowego zjawiska demograficznego przejawia się ilościowo w postaci empirycznych prawidłowości statystycznych. Te ostatnie są konkretnym przejawem ogólnych praw rozwoju populacji. Identyfikacja związków przyczynowych, ogólnych praw rozwoju populacji jest teoretyczną analizą demograficzną, a odkrywanie i badanie empirycznych wzorców statystycznych masowych zjawisk demograficznych wymaga zastosowania metod statystycznych.

Są to wstępne przesłanki i fundamentalne podstawy stosowania metod statystycznych w badaniach demograficznych. Specyfika procesów demograficznych determinuje również określone metody statystyczne, specyfikę ich wykorzystania oraz ich znaczenie poznawcze.

Specyfika populacji jako przedmiotu badań statystycznych jest następująca:

W swojej wszechstronności - wielość cech ludzi, które tworzą szereg powiązanych ze sobą struktur populacji. Ponieważ znaki ludzi są ze sobą powiązane, struktura populacji według jednego z tych znaków odzwierciedla jej strukturę według innych znaków. Jednak te znaki
może mieć wiele wartości (płeć, wiek, zawód itp.), co czyni populację niezwykle heterogenicznym agregatem;

2 Quetelet. A. Fizyka społeczna lub doświadczenie dotyczące rozwoju zdolności człowieka. - T.1. - Kijów. - 1911. -S. 6.

w swojej zmienności. Populacja jest agregatem, który jest stale aktualizowany w procesie reprodukcji. W populacji zamkniętej jest to samoodnawianie, w populacji otwartej wiąże się z napływem z zewnątrz, migracją;

W związku między strukturą a reprodukcją populacji. Populacja odnawia się, zachowując określoną strukturę, zdeterminowaną w dużej mierze przez charakter jej reprodukcji. Zmiany procesów demograficznych zmieniają z kolei strukturę ludności
struktura ludności znajduje odzwierciedlenie w natężeniu procesów demograficznych;

W fakcie, że demografia zajmuje się nie tylko charakterystyką populacji ludzi i populacji zdarzeń demograficznych, ale także tak specyficznymi populacjami jak pokolenia, w odniesieniu do których życia rozpatrywane są pewne populacje zdarzeń demograficznych;

Populacja charakteryzuje się głównie cechami jakościowymi, które jedni posiadają, a inni nie. Cechy ilościowe mają stosunkowo niewielki rozkład, tj. głównie cechy dyskretne.

Całość metod statystycznych w demografii obejmuje naukowe metody gromadzenia, przetwarzania, podsumowywania i analizowania danych populacyjnych wykorzystywanych do określania wzorców reprodukcji populacji w masowych danych demograficznych.

W zespole metod statystycznych pierwszorzędne znaczenie mają metody zbierania informacji o populacji.

Ważną cechą obserwacji zjawisk demograficznych jest to, że wydarzenia demograficzne (małżeństwo, narodziny dziecka, zmiana miejsca zamieszkania) muszą być rozłożone w czasie z jednej strony na określony czas, kiedy działają określone okoliczności zewnętrzne, wpływ które należy zbadać, az drugiej strony do pewnych okresów w życiu ludzi lub do okresów w życiu pokolenia.

Intensywność procesów demograficznych jest różna w różnych stanach demograficznych. Organizacja i program obserwacji demograficznej zależą zatem od tego, czy konieczne jest uzyskanie cech dla współczesnych, czy dla rówieśników (dla pokolenia hipotetycznego lub rzeczywistego). Populacja jest coraz częściej postrzegana jako połączenie nie tylko jednostek, ale także rodzin i gospodarstw domowych. Wybór rodziny, gospodarstwa domowego jako obiektu obserwacji wymaga ich jasnego zdefiniowania, co nie jest zadaniem łatwym.

Informacje o populacji uzyskuje się poprzez przeprowadzanie wywiadów z ludźmi, dlatego liczy się strona psychologiczna. W ankiecie biorą udział dwie osoby: osoba udzielająca wywiadu i rejestratorka. Możliwy jest dobór wykwalifikowanej kadry sekretarzy, w sposób zrozumiały, w formie dogodnej do przesłuchania ustnego, sformułowanie pytań, zapewnienie ścisłej procedury przesłuchania i zapewnienie jej przestrzegania. W przypadku respondentów sytuacja jest jednak bardziej skomplikowana. Konieczne jest uwzględnienie postaw społecznych, stosunku respondentów do tematu badania, wagi poruszanych problemów. Czynniki społeczno-psychologiczne są szczególnie ważne w badaniu opinii, w szczególności w badaniu motywów zachowań demograficznych, które stają się obecnie pełnoprawnym rodzajem badań demograficznych.

Metody statystyczne

metody statystyczne- metody analizy danych statystycznych. Istnieją metody statystyki stosowanej, które mogą być stosowane we wszystkich obszarach badań naukowych i dowolnych sektorach gospodarki narodowej oraz inne metody statystyczne, których stosowalność jest ograniczona do określonego obszaru. Dotyczy to takich metod, jak statystyczna kontrola akceptacji, statystyczna kontrola procesów technologicznych, niezawodność i testowanie oraz projektowanie eksperymentów.

Klasyfikacja metod statystycznych

Statystyczne metody analizy danych są stosowane niemal we wszystkich obszarach działalności człowieka. Stosuje się je zawsze wtedy, gdy zachodzi potrzeba uzyskania i uzasadnienia jakichkolwiek sądów o grupie (przedmiotach lub podmiotach) o pewnej wewnętrznej heterogeniczności.

Wskazane jest wyróżnienie trzech typów działalności naukowej i stosowanej w zakresie statystycznych metod analizy danych (według stopnia specyficzności metod związanych z zanurzeniem w konkretnych problemach):

a) opracowywanie i badanie metod ogólnego przeznaczenia, bez uwzględnienia specyfiki dziedziny zastosowania;

b) opracowywanie i badanie modeli statystycznych rzeczywistych zjawisk i procesów zgodnie z potrzebami określonej dziedziny działalności;

c) zastosowanie metod i modeli statystycznych do analizy statystycznej określonych danych.

Statystyka stosowana

Opisanie rodzaju danych oraz mechanizmu ich generowania jest początkiem wszelkich badań statystycznych. Do opisu danych stosuje się zarówno metody deterministyczne, jak i probabilistyczne. Za pomocą metod deterministycznych możliwa jest analiza tylko tych danych, którymi dysponuje badacz. Wykorzystano je np. do uzyskania tablic obliczonych przez oficjalne urzędy statystyki państwowej na podstawie sprawozdań statystycznych przedkładanych przez przedsiębiorstwa i organizacje. Możliwe jest przeniesienie uzyskanych wyników do szerszego zbioru, wykorzystanie ich do predykcji i sterowania jedynie na podstawie modelowania probabilistyczno-statystycznego. Dlatego często w statystyce matematycznej uwzględnia się tylko metody oparte na teorii prawdopodobieństwa.

Nie uważamy za możliwe przeciwstawianie się metodom deterministycznym i probabilistyczno-statystycznym. Traktujemy je jako kolejne etapy analizy statystycznej. W pierwszym etapie konieczne jest przeanalizowanie dostępnych danych, przedstawienie ich w formie dogodnej dla percepcji za pomocą tabel i wykresów. Następnie wskazane jest przeanalizowanie danych statystycznych w oparciu o określone modele probabilistyczno-statystyczne. Należy zauważyć, że możliwość głębszego wglądu w istotę rzeczywistego zjawiska lub procesu daje opracowanie odpowiedniego modelu matematycznego.

W najprostszej sytuacji danymi statystycznymi są wartości jakiejś cechy charakterystycznej dla badanych obiektów. Wartości mogą być ilościowe lub stanowić wskazanie kategorii, do której można przypisać obiekt. W drugim przypadku mówimy o znaku jakościowym.

Mierząc za pomocą kilku cech ilościowych lub jakościowych, otrzymujemy wektor jako dane statystyczne dotyczące obiektu. Można to uznać za nowy rodzaj danych. W tym przypadku próbka składa się z zestawu wektorów. Jeśli część współrzędnych to liczby, a część to dane jakościowe (skategoryzowane), to mówimy o wektorze danych heterogenicznych.

Jeden element próby, czyli jeden wymiar, może być funkcją jako całością. Na przykład opisującym dynamikę wskaźnika, czyli jego zmianę w czasie, jest elektrokardiogram pacjenta lub amplituda uderzeń wału silnika. Lub szereg czasowy opisujący dynamikę wyników konkretnej firmy. Wtedy próbka składa się z zestawu funkcji.

Elementami próbki mogą być również inne obiekty matematyczne. Na przykład relacje binarne. Dlatego ankietując ekspertów, często stosują oni porządkowanie (ranking) przedmiotów ekspertyzy – próbki produktów, projekty inwestycyjne, opcje decyzji zarządczych. W zależności od regulaminu badania eksperckiego elementami próby mogą być różnego rodzaju relacje binarne (porządkowanie, partycjonowanie, tolerancja), zbiory, zbiory rozmyte itp.

Tak więc matematyczny charakter elementów próby w różnych problemach statystyki stosowanej może być bardzo różny. Można jednak wyróżnić dwie klasy statystyk – numeryczną i nienumeryczną. W związku z tym statystyka stosowana dzieli się na dwie części - statystykę numeryczną i statystykę nienumeryczną.

Statystyki numeryczne to liczby, wektory, funkcje. Można je dodawać, mnożyć przez współczynniki. Dlatego w statystyce liczbowej duże znaczenie mają różne sumy. Aparatem matematycznym do analizy sum losowych elementów próby są (klasyczne) prawa wielkich liczb i centralne twierdzenia graniczne.

Nieliczbowe dane statystyczne to dane skategoryzowane, wektory cech heterogenicznych, relacje binarne, zbiory, zbiory rozmyte itp. Nie można ich dodawać i mnożyć przez współczynniki. Nie ma więc sensu mówić o sumach statystyk nieliczbowych. Są to elementy nieliczbowych przestrzeni matematycznych (zbiorów). Aparat matematyczny do analizy nieliczbowych danych statystycznych opiera się na wykorzystaniu odległości między elementami (a także miar bliskości, wskaźników różnicy) w takich przestrzeniach. Za pomocą odległości określa się średnie empiryczne i teoretyczne, udowadnia prawa wielkich liczb, konstruuje się nieparametryczne oszacowania gęstości rozkładu prawdopodobieństwa, rozwiązuje problemy diagnostyki i analizy skupień itp. (patrz).

Badania stosowane wykorzystują różne rodzaje danych statystycznych. Wynika to w szczególności ze sposobów ich pozyskiwania. Na przykład, jeśli testowanie niektórych urządzeń technicznych trwa do pewnego momentu, to otrzymujemy tzw. ocenzurowane dane składające się z zestawu liczb - czas działania kilku urządzeń przed awarią oraz informacja, że ​​pozostałe urządzenia kontynuowały pracę na koniec testu. Dane ocenzurowane są często wykorzystywane w ocenie i kontroli niezawodności urządzeń technicznych.

Zazwyczaj statystyczne metody analizy danych pierwszych trzech typów są rozpatrywane oddzielnie. Ograniczenie to spowodowane jest wspomnianą powyżej okolicznością, że aparat matematyczny do analizy danych o charakterze nienumerycznym zasadniczo różni się od aparatury do analizy danych w postaci liczb, wektorów i funkcji.

Modelowanie probabilistyczno-statystyczne

Stosując metody statystyczne w określonych obszarach wiedzy i sektorach gospodarki narodowej, uzyskujemy dyscypliny naukowe i praktyczne, takie jak „metody statystyczne w przemyśle”, „metody statystyczne w medycynie” itp. Z tego punktu widzenia ekonometria jest „statystyczną metody w ekonomii”. Te dyscypliny z grupy b) są zwykle oparte na modelach probabilistyczno-statystycznych zbudowanych zgodnie z charakterystyką obszaru zastosowania. Bardzo pouczające jest porównanie modeli probabilistyczno-statystycznych stosowanych w różnych dziedzinach, odkrycie ich bliskości, a jednocześnie stwierdzenie pewnych różnic. Widać więc bliskość stwierdzeń problemowych i metod statystycznych stosowanych do ich rozwiązywania w takich obszarach, jak naukowe badania medyczne, specyficzne badania socjologiczne i badania marketingowe, czyli w skrócie medycyna, socjologia i marketing. Są one często zgrupowane razem pod nazwą „badania wyrywkowe”.

Różnica między badaniami wybiórczymi a ekspertyzami przejawia się przede wszystkim w liczbie badanych obiektów lub podmiotów – w badaniach wybiórczych mówimy zwykle o setkach, aw ekspertyzach o dziesiątkach. Ale technologia badań eksperckich jest znacznie bardziej wyrafinowana. Specyfika jest jeszcze bardziej widoczna w modelach demograficznych czy logistycznych, w przetwarzaniu informacji narracyjnych (tekstowych, kronikarskich) czy w badaniu wzajemnego wpływu czynników.

Zagadnienia niezawodności i bezpieczeństwa urządzeń i technologii technicznych, teoria kolejek są szczegółowo omawiane w wielu publikacjach naukowych.

Analiza statystyczna konkretnych danych

Zastosowanie metod i modeli statystycznych do analizy statystycznej konkretnych danych jest ściśle związane z problematyką danej dziedziny. Wyniki trzeciego ze zidentyfikowanych rodzajów działalności naukowej i stosowanej znajdują się na przecięciu dyscyplin. Można je uznać za przykłady praktycznego zastosowania metod statystycznych. Ale nie ma mniej powodów, aby przypisać je do odpowiedniej dziedziny ludzkiej działalności.

Na przykład wyniki ankiety przeprowadzonej wśród konsumentów kawy rozpuszczalnej są w naturalny sposób przypisywane marketingowi (co robią podczas wykładów na temat badań marketingowych). Badanie dynamiki cen za pomocą wskaźników inflacji obliczanych na podstawie niezależnie zbieranych informacji jest interesujące przede wszystkim z punktu widzenia ekonomii i zarządzania gospodarką narodową (zarówno na poziomie makro, jak i poszczególnych organizacji).

Perspektywy rozwoju

Teoria metod statystycznych ma na celu rozwiązywanie rzeczywistych problemów. Dlatego ciągle pojawiają się w niej nowe sformułowania problemów matematycznych analizy danych statystycznych, opracowywane i uzasadniane są nowe metody. Uzasadnienie jest często przeprowadzane za pomocą środków matematycznych, to znaczy poprzez udowodnienie twierdzeń. Ważną rolę odgrywa element metodologiczny – jak dokładnie ustawić zadania, jakie założenia przyjąć na potrzeby dalszych badań matematycznych. Rola nowoczesnych technologii informacyjnych, w szczególności eksperymentu komputerowego, jest ogromna.

Pilnym zadaniem jest analiza historii metod statystycznych w celu identyfikacji trendów rozwojowych i zastosowania ich do prognozowania.

Literatura

2. Naylor T. Eksperymenty symulacyjne maszyn z modelami systemów ekonomicznych. - M.: Mir, 1975. - 500 s.

3. Kramer G. Matematyczne metody statystyki. - M.: Mir, 1948 (wyd. 1), 1975 (wyd. 2). - 648 s.

4. Bolshev L. N., Smirnov N. V. Tabele statystyki matematycznej. - M.: Nauka, 1965 (wyd. 1), 1968 (wyd. 2), 1983 (wyd. 3).

5. Smirnov N. V., Dunin-Barkovsky I. V. Kurs z teorii prawdopodobieństwa i statystyki matematycznej do zastosowań technicznych. wyd. Po trzecie, stereotypowe. - M.: Nauka, 1969. - 512 s.

6. Normana Drapera, Harry'ego Smitha Stosowana analiza regresji. Regresja wielokrotna = zastosowana analiza regresji. - 3. wyd. - M .: "Dialektyka", 2007. - S. 912. - ISBN 0-471-17082-8

Zobacz też

Fundacja Wikimedia. 2010 .

  • Jat Kha
  • Amalgamat (ujednoznacznienie)

Zobacz, czym są „Metody statystyczne” w innych słownikach:

    METODY STATYSTYCZNE- METODY STATYSTYCZNE Naukowe metody opisu i badania zjawisk masowych umożliwiające ilościową (numeryczną) ekspresję. Słowo „statystyka” (od Yigal. stato stan) ma wspólny rdzeń ze słowem „stan”. Początkowo to…… Encyklopedia filozoficzna

    METODY STATYSTYCZNE -- naukowe metody opisu i badania zjawisk masowych, które umożliwiają ilościowe (numeryczne) wyrażanie. Słowo „statystyka” (z włoskiego stato – stan) ma wspólny rdzeń ze słowem „państwo”. Początkowo odnosiła się do nauk o zarządzaniu i... Encyklopedia filozoficzna

    Metody statystyczne- (w ekologii i biocenologii) metody statystyki zmienności, które pozwalają zbadać całość (np. fitocenozę, populację, produktywność) w jej poszczególnych zbiorach (np. według danych uzyskanych w punktach ewidencyjnych) i ocenić stopień dokładności ... ... Słownik ekologiczny

    metody statystyczne- (w psychologii) (z łac. status status) niektóre metody stosowanej statystyki matematycznej stosowane w psychologii głównie do przetwarzania wyników eksperymentów. Głównym celem stosowania S. m jest zwiększenie ważności wniosków w ... ... Wielka encyklopedia psychologiczna

    Metody statystyczne- 20.2. Metody statystyczne Konkretne metody statystyczne wykorzystywane do organizowania, regulowania i zatwierdzania działań obejmują między innymi: a) projektowanie eksperymentów i analizę czynnikową; b) analiza wariancji i… Słowniczek-podręcznik terminów dokumentacji normatywnej i technicznej

    METODY STATYSTYCZNE- Metody badania wielkości. aspekty społeczeństw masowych. zjawiska i procesy. S. m. pozwalają w kategoriach cyfrowych scharakteryzować zachodzące zmiany w społeczeństwach. procesy, aby studiować różne. formy ekonomii społecznej. wzory, zmiana ... ... Rolniczy słownik encyklopedyczny

    METODY STATYSTYCZNE- niektóre metody stosowanej statystyki matematycznej wykorzystywane do przetwarzania wyników eksperymentów. Opracowano szereg metod statystycznych specjalnie do badania jakości testów psychologicznych, do użytku w profesjonalnych ... ... Profesjonalna edukacja. Słownik

    METODY STATYSTYCZNE- (w psychologii inżynierskiej) (z łac. status status) niektóre metody statystyki stosowanej stosowane w psychologii inżynierskiej do przetwarzania wyników eksperymentów. Głównym celem stosowania S. m jest zwiększenie ważności wniosków w ... ... Słownik encyklopedyczny psychologii i pedagogiki

Streszczenie na ten temat:

Rozwój metod statystycznych w zarządzaniu jakością

Kazań 2009


Wstęp

1. Pojęcie statystycznych metod jakości

2. Historia rozwoju statystycznych metod jakości

3. Zastosowanie i rozwój metod statystycznych

4. Proste metody statystyczne

4.1 Burza mózgów

4.2 Schemat procesu

4.3 Lista kontrolna (lista kontrolna)

4.4 Szeregi czasowe (wykres liniowy)

4.5 Wykres Pareto

4.6 Diagram przyczynowo-skutkowy (diagram Ishikawy)

4.7 Histogram

4.8 Wykres rozrzutu

4.9 Karta kontrolna

4.10 Metody Taguchiego

Wniosek

Bibliografia


Wstęp

Jedną z najważniejszych zasad kompleksowego zarządzania jakością (TQM) jest podejmowanie decyzji w oparciu o fakty. Poprawa jakości produktów i procesów wymaga skrupulatnej pracy personelu przedsiębiorstwa w celu zidentyfikowania przyczyn wad (odstępstw od dokumentacji) i ich wyeliminowania. W tym celu konieczne jest zorganizowanie wyszukiwania faktów charakteryzujących niezgodności, z których zdecydowana większość to dane statystyczne, opracowanie metod analizy i przetwarzania danych, zidentyfikowanie pierwotnych przyczyn wad i opracowanie działań w celu ich wyeliminowania najniższym kosztem .

Problematyką gromadzenia, przetwarzania i analizowania wyników działalności produkcyjnej zajmuje się statystyka matematyczna, która obejmuje dużą liczbę nie tylko znanych metod, ale także nowoczesnych narzędzi (jak modne jest w ostatnich latach nazywanie metod) służących do analiza i wykrywanie defektów. Metody te obejmują analizy korelacji i regresji, testowanie hipotez statystycznych, analizę czynnikową, analizę szeregów czasowych, analizę niezawodności itp.

Szeroko rozpowszechnione w zarządzaniu jakością (pod wpływem japońskich specjalistów) otrzymało siedem prostych metod, których zastosowanie nie wymaga wysoko wykwalifikowanego personelu i pozwala objąć analizę przyczyn większości wad występujących w produkcji. W niniejszej instrukcji metody te są ujęte w różnych rozdziałach, w zależności od stosowności ich zastosowania.

Wiele uwagi poświęca się praktycznemu zastosowaniu statystyki matematycznej do rozwiązywania konkretnych problemów produkcyjnych, zwłaszcza przy analizie jakości procesów.

Należy zauważyć, że wraz z rozwojem naukowych systemów zarządzania jakością stale wzrasta rola metod statystycznych w zarządzaniu jakością. To właśnie powszechne stosowanie metod statystycznych w produkcji wyrobów we wczesnych stadiach walki o jakość (lata 50.) pozwoliło japońskim przedsiębiorstwom szybko stać się liderami światowej gospodarki.

Konkurencyjność rosyjskich przedsiębiorstw będzie też w dużej mierze zależała od skali szkolenia kadr w zakresie statystycznych metod zarządzania jakością i ich systematycznego stosowania w praktyce.


1. Pojęcie statystycznych metod jakości

Koncepcja „zarządzania jakością” jako nauki powstała pod koniec XIX wieku, wraz z przejściem produkcji przemysłowej na zasady podziału pracy. Zasada podziału pracy wymagała rozwiązania problemu zamienności i dokładności produkcji Wcześniej, przy rzemieślniczej metodzie produkcji, dokładność gotowego produktu zapewniano za pomocą próbek lub metod dopasowania współpracujących części i zespołów. Biorąc pod uwagę znaczne różnice w parametrach procesu, stało się jasne, że potrzebne jest kryterium jakościowe dla produkcji wyrobów, aby ograniczyć odchylenia wymiarowe w masowej produkcji części.

Jako takie kryterium F. Taylor zaproponował przedziały wyznaczające granice odchyleń parametrów w postaci dolnej i górnej granicy. Pole wartości takiego przedziału zaczęto nazywać tolerancją.

Ustalenie tolerancji doprowadziło do konfrontacji interesów projektantów i producentów: dla jednych zaostrzenie tolerancji zapewniło wzrost jakości połączenia elementów konstrukcyjnych, dla innych stworzyło trudności w stworzeniu układu technologicznego który zapewnia wymagane wartości odchyleń procesu. Oczywiste jest również, że w przypadku istnienia dopuszczalnych granic tolerancji, producenci nie mieli motywacji do „utrzymywania” parametrów użytkowych (parametrów) wyrobu jak najbliżej nominalnej wartości parametru, co prowadziło do wartości parametrów ​wykracza poza granice tolerancji.

W tym samym czasie (początek lat 20. ubiegłego wieku) niektórzy eksperci branżowi interesowali się tym, czy możliwe jest przewidywanie wartości parametru poza granicami tolerancji. I zaczęli skupiać się nie na samym fakcie wad produktu, ale na zachowaniu procesu technologicznego, w wyniku którego dochodzi do tego mariażu lub parametr odbiega od ustalonej tolerancji. W wyniku badań zmienności procesów technologicznych pojawiły się statystyczne metody sterowania procesami. Przodkiem tych metod był W. Shewhart.

Jednocześnie wiele uwagi poświęcono rozwojowi teorii selektywnej kontroli produktów.Pierwsze prace w tym zakresie pojawiły się pod koniec lat 20. w Stanach Zjednoczonych, ich autorem był G. Dodge, który później stał się znanym amerykańskim naukowiec.

Specjaliści od początku istnienia statystycznych metod kontroli jakości rozumieli, że jakość produktów kształtuje się w wyniku złożonych procesów, na których skuteczność wpływa wiele czynników materialnych oraz błędy pracowników.Dlatego w celu zapewnienia wymaganego poziomu jakości , trzeba umieć zarządzać wszystkimi czynnikami wpływającymi, określać możliwe opcje wdrażania jakości, nauczyć się ją przewidywać i oceniać zapotrzebowanie na obiekty o takiej czy innej jakości.

W okresie powojennym zarówno w USA, jak iw Europie pojawiły się krajowe standardy jakości. Centralna rola w opracowywaniu dokumentów normatywnych w dziedzinie jakości należy do Międzynarodowej Organizacji Normalizacyjnej (ISO). Od lat 90. idee teorii wariacji, statystycznego sterowania procesami (SPC) opanowały nie tylko matematyków, ale stały się także niezbędnymi narzędziami dla menedżerów i pracowników usług jakościowych.

Wielki impuls do dalszego rozwoju zasad zarządzania jakością dał japoński naukowiec G. Taguchi. Zaproponował uwzględnienie zmienności właściwości produktu na różnych etapach jego rozwoju, co było rewolucyjnym pomysłem na zarządzanie jakością. Według Tagutina konieczne było ustalenie takich kombinacji parametrów produktu i procesu, które prowadziły do ​​minimum odchyleń procesu. Procesy te, które zaczęto nazywać odpornymi, były odporne na zmiany parametrów wejściowych procesów.

Metody statystyczne stosowane w dzisiejszej praktyce przedsiębiorstw można podzielić na następujące kategorie:

Metody o wysokim stopniu złożoności, które są wykorzystywane przez twórców systemów lub procesów kontroli przedsiębiorstwa. Obejmują one metody analizy skupień, odporne statystyki adaptacyjne itp.;

Specjalne metody stosowane w opracowywaniu operacji kontroli technicznej, planowaniu eksperymentów przemysłowych, obliczeniach dokładności i niezawodności itp .;

Metody ogólnego przeznaczenia, w opracowaniu których wielki wkład wnieśli japońscy specjaliści. Należą do nich „Siedem prostych metod” (lub „Siedem narzędzi jakości”), które obejmują listy kontrolne; metoda warstwowa wykresy; Wykresy Pareto; Diagramy Ishikawy; histogramy; karty kontrolne.

Obecnie istnieje obszerna literatura dotycząca metod poststatystycznych i pakietów stosowanych programów komputerowych, w rozwoju których krajowe szkoły naukowe teorii prawdopodobieństwa zajmują wiodącą pozycję na świecie.

Spośród istniejących metod statystycznych najczęstsze to:

1) statystyki opisowe;

2) planowanie eksperymentów;

3) testowanie hipotez;

4) analiza regresji;

5) analiza korelacji;

6) kontrola selektywna;

7) analiza czynnikowa;

8) analiza szeregów czasowych;

9) statystyczne ustalenie tolerancji;

10) analiza dokładności pomiaru;

11) statystyczne sterowanie procesem;

12) statystyczna regulacja procesów;

13) analiza niezawodności;

14) analizę przyczyn niezgodności;

15) analiza możliwości procesu (histogramy).

W tabeli 1 przedstawiono obszary zastosowania metod statystycznych. Nazwy wykresów odpowiadają numerowi metody statystycznej z ww.

Tabela 1 Metody statystyczne stosowane w kontroli jakości

\ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 ZA + + + + B + + + + C + + + + + + + + + re + + + + mi + fa + + + + + + + + + + W + + + W + + + + + ja + + K + L + + + + + M + + + + + + +

Indeksowanie literowe ciągów odpowiada następującym elementom systemu jakości ISO 9001-94:

A - odpowiedzialność kierownictwa;

B - analiza umowy;

B - projekt;

G - zakupy;

D - identyfikacja i identyfikowalność produktu;

E - kontrola procesu;

G - kontrola i testowanie;

Z - aparatura kontrolno-pomiarowa i badawcza;

Oraz - działania z produktami niezgodnymi;

K - rejestracja danych;

L - wewnętrzne kontrole jakości;

M-trening.


2. Historia rozwoju statystycznych metod jakości

Pierwsze dostrzeżenie statystycznych metod jakości w postaci próby ma długą historię. Przed wiekami nabywcy zboża i bawełny sprawdzali właściwości towarów, przebijając worki ze zbożem lub bawełną w celu pobrania próbki. Można przypuszczać, że w tamtych czasach nie było naukowej kalkulacji pobierania próbek, a trzeba przyjąć, że była to kwestia doświadczenia, zarówno sprzedawców, jak i nabywców towarów.

Dopóki rzemieślnik łączył funkcje wytwórcy i kontrolera (do połowy XIX wieku), nie było problemów z oceną jakości wytwarzanych wyrobów. Wszystko zmieniło się wraz z nadejściem podziału pracy. Robotnicy pierwszych manufaktur fabrycznych, zdolni do wykonywania prostych operacji procesu, nie mogli odpowiadać za jakość swojej pracy, a tym bardziej za jakość gotowego produktu. Wprowadzenie stanowiska kontrolera pociągnęło za sobą konieczność ujednolicenia funkcji kontrolnych i z czasem wymagało wypracowania naukowego podejścia do oceny jakości produktów. Chęć wytwarzania produktów wysokiej jakości doprowadziła do przerośniętego obrzęku aparatury kontrolnej w przedsiębiorstwach przemysłowych.

Wykorzystanie metod statystycznych do monitorowania jakości pracy nastąpiło jeszcze później – w pierwszej ćwierci XX wieku. To właśnie wprowadzenie metod statystycznych umożliwiło znaczne zmniejszenie pracochłonności czynności kontrolnych oraz znaczne zmniejszenie liczby inspektorów (kontrolerów). Pierwsze zastosowanie naukowych metod kontroli statystycznej odnotowano w 1924 r., kiedy to W. Shewhart wykorzystał karty kontrolne do określenia ilości wadliwych produktów.

Walter E. Shewhart pracował jako inżynier w firmie Western Electric (USA) od 1918 roku. W 1925 roku została przekształcona w Bell Telephone Laboratories. Shewhart pracował tam do 1956 roku (aż do przejścia na emeryturę). Jego główne osiągnięcia w dziedzinie kontroli statystycznej zostały wdrożone przede wszystkim w tej firmie.W. Shewhart przeniósł swoją uwagę z podejścia tolerancyjnego na zarządzanie jakością na podejście mające na celu zapewnienie stabilności procesów i zmniejszenie ich zmienności. Jego idee pozostają aktualne do dziś. Ponadto Shewhart wyraził ideę ciągłego doskonalenia jakości, proponując cykl ciągłego doskonalenia procesu, który dziś nazywany jest cyklem Shewharta-Deminga. W ostatnich latach cykl ten był dalej rozwijany pod wpływem Deminga i stał się narzędziem pracy zespołowej w doskonaleniu jakości.

Równolegle z Shewhartem, w tej samej firmie w połowie lat dwudziestych, inżynier G.F. Dodge zaproponował teorię kontroli akceptacji, która szybko zyskała światową sławę. Podstawy tej teorii zostały nakreślone w 1944 roku we wspólnej pracy z HG Rollingiem „Sampling Inspection Tables - Single and Double Sampling”.

Wielki wkład w system kontroli jakości w połowie XX wieku wnieśli amerykańscy naukowcy D. Neumann, E. Pearson, E. Fisher. Wśród ich osiągnięć najbardziej znana była teoria testowania hipotez statystycznych. Można zauważyć, że dziś bez znajomości teorii błędów pierwszego i drugiego rodzaju nie da się racjonalnie ocenić wybranej metody kontroli statystycznej.

W czasie II wojny światowej brak środków wymusił poszukiwanie nowych metod badań z jak najmniejszą liczbą obiektów do zbadania, zwłaszcza w badaniach niszczących. W latach 40. XX wieku A. Wald (USA) rozwinął teorię analizy sekwencyjnej oraz statystyczną teorię podejmowania decyzji. Zastosowanie teorii analizy sekwencyjnej było na tyle skuteczne (koszty kontroli przy takim samym prawdopodobieństwie popełnienia błędu są zredukowane do 60% w porównaniu z tradycyjnymi metodami), że w Stanach Zjednoczonych został uznany za dokument tajny i opublikowany dopiero po zakończeniu wojny .

Edward Deming (USA) miał ogromny wpływ na ustanowienie statystycznych metod kontroli jako filozofii jakości. Na początku lat pięćdziesiątych Deming przeprowadził zakrojone na szeroką skalę szkolenie japońskich specjalistów w zakresie nowych metod zapewniania jakości, zwracając szczególną uwagę na statystyczne metody zarządzania jakością. Jego działalność odniosła taki sukces, że już w latach 60. Amerykanie musieli oddać japońskim firmom znaczną część rynków zbytu, w tym w samych Stanach Zjednoczonych.

Amerykański wpływ naukowy na doskonalenie systemów zapewniania jakości doprowadził do powstania japońskiej szkoły naukowej w dziedzinie jakości, wśród której przedstawicieli wymienić należy przede wszystkim K. Ishikawę i G. Taguchi, którzy dokonali wielkiego wkład w rozwój metod statystycznych w zarządzaniu jakością. Tak więc Kaoru Ishikawa po raz pierwszy w światowej praktyce zaproponował oryginalną graficzną metodę analizy związków przyczynowo-skutkowych, zwaną „diagramami Ishikawy”. problemów wszędzie tam, gdzie stosowany jest diagram Ishikawy.

Genichi Taguchi to znany japoński statystyk drugiej połowy XX wieku. Rozwija idee statystyki matematycznej, dotyczące w szczególności statystycznych metod planowania eksperymentów i kontroli jakości. Tagutiv jako pierwszy połączył koszty ekonomiczne i jakość za pomocą zależności matematycznej, wprowadzając koncepcję funkcji utraty jakości. Jako pierwszy wykazał, że straty jakości zachodzą również w polu tolerancji – pojawiają się one od momentu, gdy nominalna wartość parametru określona w dokumentacji technicznej nie pokrywa się z wartością badanej zmiennej losowej. Zasługa Taguchiego polega również na tym, że był w stanie znaleźć stosunkowo proste argumenty i techniki, które urzeczywistniły solidny projekt eksperymentu w dziedzinie zapewniania jakości. Naszym zdaniem nieuwaga wobec metod Taguchiego jest jedną z przyczyn poważnego opóźnienia rosyjskich przedsiębiorstw w poprawie jakości procesów i produktów.

Swój naukowy wkład w rozwój metod statystycznych wnieśli również radzieccy naukowcy: V.I. Romanovsky, EE Slutsky, NV Smirnov, Yu.V. Linnik itp. Na przykład Smirnov położył podwaliny pod teorię szeregów nieparametrycznych, a Słucki opublikował kilka ważnych prac dotyczących statystyki sprzężonych szeregów stacjonarnych. Statystyczne metody badań i kontroli jakości w produkcji masowej, metody planowania eksperymentu były szczególnie intensywnie rozwijane w ZSRR (Yu.P. Adler i inni).

W latach 50. i 70. ubiegłego wieku wiele przedsiębiorstw kompleksu obronnego ZSRR aktywnie prowadziło (pod wpływem japońskich doświadczeń w poprawie jakości) prace nad wprowadzeniem systemu zarządzania jakością (w Saratowie - BIP, w Gorkach - KANARSPI , w Jarosławiu - NORM, we Lwowie - KSUKP itp.), w których metody statystyczne z zakresu kontroli akceptacji i regulacji procesów technologicznych zajmowały ważne miejsce w zapobieganiu wadom wyrobów.

W ostatnich latach można zauważyć prace rosyjskiego naukowca w dziedzinie jakości V.A. Lapidus. Opublikował szereg prac z zakresu teorii i praktyki zarządzania jakością, uwzględniających zmienność i niepewność, w których wyznaczył „zasadę dystrybucji priorytetów”, która pozwala optymalnie budować relacje dostawca-konsument z punktu widzenia zapewnienia jakości. Jest także autorem nowego podejścia do zarządzania jakością, zwanego „elastyczną metodą zarządzania statystycznego”, które matematycznie opiera się na teorii zbiorów rozmytych.

Niemniej jednak można zauważyć pewną stagnację rosyjskiej szkoły naukowej statystyki matematycznej, prawdopodobnie z powodu braku zapotrzebowania ze strony gospodarki na naukowy porządek stosowania nowych metod statystycznych dla zapewnienia jakości produktów.


3. Zastosowanie i rozwój metod statystycznych

Tabela 2 Zastosowanie metod statystycznych na etapach cyklu życia produktu

Etapy cyklu życia produktu Zadania rozwiązywane w systemie jakości Metody statystyczne Badania marketingowe i rynkowe Badanie i ocena popytu rynkowego oraz perspektyw jego zmian Metody analizy agregatów statystycznych, ekonomicznych i matematycznych (programowanie dynamiczne, modelowanie symulacyjne itp.) jakości i ceny produktów Metody ekonomiczno-matematyczne (QFD) itp. /> Prognozowanie cen, wielkości produkcji, potencjalnego udziału w rynku, długości życia produktów na rynku.) Projektowanie i rozwój produktów

Regulacja wymagań jakościowych wyrobów.

Definicja wymagań technicznych w zakresie niezawodności.

Optymalizacja wartości wskaźników jakości produktów.

Ocena poziomu technicznego produktów

Metody graficzne (schemat Ishikawy, diagram Pareto, histogram itp.): metody analizy populacji statystycznych; metody ekonomiczne i matematyczne (metody Taguchiego, QFD) /> Testowanie prototypów lub partii pilotażowych nowych (zmodernizowanych) produktów porównanie wariancji itp.): metody ekonomiczne i matematyczne (planowanie eksperymentu) /> Zapewnienie bezpieczeństwa produktu Metody ekonomiczne i matematyczne ( modelowanie symulacyjne, metoda drzew prawdopodobieństwa itp.) Zakupy Tworzenie planów zaopatrzenia przedsiębiorstw w zasoby materiałowe i techniczne o wymaganej jakości Metody ekonomiczne i matematyczne (teoria kolejek, programowanie liniowe itp.) /> Ocena możliwości dostawców Metody ekonomiczne i matematyczne (analiza systemowa, programowanie dynamiczne itp.) /> Terminowość dostaw zasobów materiałowych i technicznych Metody ekonomiczne i matematyczne (teoria kolejek) /> Obniżenie kosztów wsparcia materiałowego i technicznego jakości produktu Ekonomiczne i metody matematyczne (metody Taguchiego, analiza kosztów funkcjonalnych itp.) Produkcja Rozwój procesów technologicznych Metody ekonomiczne i matematyczne (metody Taguchiego); wykresy punktowe itp.); metody analizy populacji statystycznych (analizy wariancji, regresji, korelacji itp.) /> Zapewnienie dokładności i stabilności procesów technologicznych Metody statystycznej oceny dokładności i stabilności procesów technologicznych (histogramy, wykresy dokładności, wykresy kontrolne) / > Zapewnienie stabilności jakości wyrobów w produkcji Statystyczna regulacja procesów technologicznych (wykresy dokładności, karty kontrolne) Kontrola i testowanie Przestrzeganie zasad i wymagań metrologicznych w zakresie przygotowania, wykonania i przetwarzania wyników badań Metody graficzne (histogram, wykres rozrzutu itp.) ); metody analizy populacji statystycznych (metody testowania hipotez statystycznych, porównywanie średnich, porównywanie wariancji itp.) /> Identyfikacja produktów, których jakość nie spełnia ustalonych wymagań Pareto itp.), metody ekonomiczne i matematyczne (analiza kosztów funkcjonalnych, QFD) Pakowanie i przechowywanie Analiza zgodności z wymaganiami dotyczącymi pakowania i przechowywania produktów w przedsiębiorstwie Metody statystycznej kontroli akceptacji; metody ekonomiczno-matematyczne (teoria kolejek) Wdrażanie i dystrybucja produktów Zapewnienie jakości transportu produktów Metody ekonomiczno-matematyczne (programowanie liniowe, teoria kolejek) Instalacja i uruchomienie Analiza jakości produktu podczas instalacji i uruchomienia Metody graficzne (wykres szeregów czasowych) itp. ); metody analizy populacji statystycznych (analiza czynnikowa itp.) /> Analiza kosztów konsumpcyjnych podczas użytkowania produktów Metody ekonomiczne i matematyczne (metody Taguchiego, analiza kosztów, QFD) Pomoc techniczna w utrzymaniu

Organizacja napraw gwarancyjnych produktów

Organizacja terminowej dostawy części zamiennych

Metody ekonomiczne i matematyczne (teoria kolejek, programowanie liniowe itp.) Działania posprzedażowe Analiza awarii i innych niezgodności produktów Metody graficzne (wykres szeregów czasowych itp.); metody analizy populacji statystycznych (analiza czynnikowa itp.) Utylizacja po zużyciu Badanie możliwości wykorzystania produktów o nieodpowiedniej jakości lub na końcu ich okresu użytkowania Metody ekonomiczne i matematyczne (analiza kosztów funkcjonalnych, QFD itp.)

Określenie potrzeby i wybór konkretnych metod statystycznych w systemie jakości to dość skomplikowana i długotrwała praca o charakterze analitycznym i organizacyjnym.

W związku z tym wskazane jest prowadzenie tych prac w oparciu o specjalny program, który może zawierać następujący zestaw środków organizacyjnych (ryc. 1). Konieczne jest rozpoczęcie rozwoju metod statystycznych od prostych i dostępnych, a następnie przejście do metod bardziej złożonych. Biorąc pod uwagę trudności w opanowaniu metod statystycznych w praktyce przemysłowej, wskazane jest podzielenie tych metod na dwie klasy: metody proste i metody złożone.

Wybierając metody statystyczne, starają się, aby odpowiadały one charakterowi procesu produkcyjnego, dostępności przyrządów pomiarowych oraz przetwarzaniu informacji statystycznych.Ponieważ do rozwiązania konkretnego problemu produkcyjnego można wybrać kilka różnych metod statystycznych, wybiera się jedną który pozwoli osiągnąć najlepszy wynik przy minimalnych kosztach.


Ryż. 1 Program do opanowania metod statystycznych

Do wykonania niezbędnych obliczeń statystycznych wykorzystywane są różnego rodzaju środki techniczne, w tym komputery elektroniczne. Stosunkowo proste środki techniczne, np. wskaźniki statystyczne, umożliwiają wprowadzanie danych z wag oprzyrządowania, logów i tablic oraz obliczanie charakterystyk statystycznych w trakcie bezpośredniego pomiaru.Wykorzystanie komputera umożliwia przetwarzanie informacji wstępnych, monitorowanie parametry procesu, ciągle eksperymentuj, zmieniając zmienne, aż do ustalenia optymalnych warunków. W takim przypadku można skorzystać ze standardowych programów statystycznej kontroli jakości.


4. Proste metody statystyczne

Spośród prostych metod statystycznych, nazwanych tak ze względu na ich komparatywną prostotę, perswazyjność i dostępność, najszerzej stosowanych jest siedem metod zidentyfikowanych na początku lat 50. przez japońskich specjalistów pod kierunkiem K. Ishikawy. Razem metody te tworzą skuteczny system kontroli jakości i metod analizy. Z ich pomocą, według samego K. Ishikawy, można rozwiązać od 50 do 95% wszystkich problemów, które znajdują się w polu widzenia producentów. Stosowanie siedmiu prostych metod nie wymaga specjalnego wykształcenia (standardowy japoński program nauczania tych metod przewidziany jest na 20 lekcji i jest nastawiony na poziom licealistów). Popularność siedmiu prostych metod można ocenić po tym, że dziś w japońskich firmach każdy je posiada – od prezesa po zwykłego pracownika. Pod tym względem metody te są środkiem demokratyzacji technologii zarządzania jakością.

Siedem prostych metod można zastosować w dowolnej kolejności, w dowolnej kombinacji, w różnych sytuacjach analitycznych, można je traktować jako integralny system, jako oddzielne narzędzia analityczne. W każdym konkretnym przypadku proponuje się określenie składu i struktury zestawu roboczego metod. Choć są to proste metody, nie oznacza to, że wielu z nich nie da się wykorzystać z komputerem do szybkiego i łatwego wykonania obliczeń oraz bardziej przejrzystego przedstawienia danych statystycznych.

Według K. Ishikawy do wszystkich prostych metod należą:

1. histogramy;

2. szeregi czasowe;

3. Wykresy Pareto;

4. diagramy przyczynowo-skutkowe Ishikawy;

5. arkusze kontrolne;

6. karty kontrolne;

7. wykresy rozrzutu.

Obszary zastosowania wspomnianych „narzędzi” jakościowych przedstawiono na ryc. 2; są jeszcze dwie techniki, które są często stosowane na początkowym etapie pracy:

1. burza mózgów;

2. schemat procesu.

Rozważ istotę tych metod.

4.1 ATAK MÓZGU

Burza mózgów pomaga grupie wygenerować jak najwięcej pomysłów dotyczących problemu w jak najkrótszym czasie i można to zrobić na dwa sposoby:

1. Po kolei – każdy członek grupy przedstawia pomysły w kolejności według ważności wokół kręgu lub pomija swoją turę do następnego razu. W ten sposób nawet najbardziej milczące osoby można zachęcić do mówienia, jednak pojawia się tu pewien element presji, który może stanąć na przeszkodzie.

2. Losowo — członkowie grupy po prostu zgłaszają pomysły, które przychodzą im do głowy. Stwarza to luźniejszą atmosferę, chociaż istnieje niebezpieczeństwo, że przeważą najbardziej rozmowni.

W obu metodach ogólne zasady postępowania są takie same. Wskazane jest przestrzeganie następującej linii postępowania:

1. Nigdy nie krytykuj pomysłów. Zapisz każdy pomysł na kartce lub tablicy. Jeśli słowa są widoczne dla wszystkich, pomaga to uniknąć nieporozumień i generuje nowe pomysły.

2. Wszyscy muszą uzgodnić kwestię lub program nadchodzącej burzy mózgów.

3. Wpisuj słowa mówcy dosłownie na tablicy lub na kartce, bez ich redagowania.

4. Rób wszystko szybko, najlepiej przeprowadzić burzę mózgów w ciągu 5 do 15 minut.

5. Identyfikacja problemów.

6. Analiza problemu.

Rycina 2 Zakres „narzędzi” jakości

4.2 SCHEMAT PROCESU

Diagram procesu (sekwencja operacji, mapa trasy) jest używany, gdy wymagane jest prześledzenie rzeczywistych lub domniemanych etapów procesu, przez które przechodzi produkt lub usługa, aby można było zidentyfikować odchylenia.

Podczas studiowania diagramów procesów często można znaleźć ukryte pułapki, które są potencjalnymi źródłami zakłóceń i trudności.

Konieczne jest zgromadzenie specjalistów posiadających największą wiedzę na temat tego procesu, aby:

7. zbudować schemat sekwencyjny etapów procesu, który faktycznie się odbywa;

8. zbudować schemat sekwencyjny etapów procesu, który powinien przebiegać, jeśli wszystko działa poprawnie;

9. porównaj oba obwody, aby zobaczyć, czym się różnią, i znajdź w ten sposób punkt, w którym pojawiają się problemy.

4.3 KARTA KONTROLNA (TABELA KONTROLI)

Lista kontrolna pozwala odpowiedzieć na pytanie: „Jak często zdarza się dane zdarzenie?”. Tu zaczyna się przekształcanie opinii i przypuszczeń w fakty.Budowanie checklisty obejmuje następujące kroki uwzględniające potrzebę:

1. jak najdokładniej ustalić, które zdarzenie będzie obserwowane. Wszyscy muszą oglądać to samo;

2. uzgodnić okres, w którym dane będą zbierane. Może wahać się od godzin do tygodni;

3. Stwórz przejrzysty i łatwy do wypełnienia formularz. Kolumny i kolumny powinny być wyraźnie oznaczone w formularzu, powinno być wystarczająco dużo miejsca na wpisanie danych;

4. Zbieraj dane konsekwentnie i uczciwie, nie wprowadzając niczego w błąd. Jeszcze raz upewnij się, że przydzielony czas jest wystarczający do wykonania zadania zbierania danych.

Zebrane dane muszą być jednorodne. Jeśli tak nie jest, musisz najpierw pogrupować dane, a następnie rozważyć je osobno.

Rys. 3 Arkusz kontrolny/>


4.4 SZEREGI CZASOWE (WYKRES LINIOWY)

Szeregi czasowe stosuje się, gdy wymagane jest przedstawienie w jak najprostszy sposób przebiegu zmian obserwowanych danych w określonym przedziale czasu.

Szeregi czasowe przeznaczone są do wizualnej prezentacji danych, są bardzo łatwe w budowie i użytkowaniu. Punkty są nanoszone na wykres w kolejności, w jakiej zostały zebrane. Ponieważ wskazują one na zmianę charakterystyki w czasie, kolejność danych jest bardzo ważna.

Niebezpieczeństwem związanym z używaniem szeregów czasowych jest tendencja do uznawania wszelkich zmian danych w czasie za ważne.

Szeregi czasowe, podobnie jak inne rodzaje technik tworzenia wykresów, powinny być wykorzystywane do skupiania się na naprawdę istotnych zmianach w systemie.

Jednym z najskuteczniejszych zastosowań szeregów czasowych jest identyfikacja znaczących trendów lub zmian średniej (ryc. 4)

Ryc. 4 Szeregi czasowe

4.5 WYKRES PARETO

Jest używany, gdy wymagane jest przedstawienie względnej ważności wszystkich problemów lub warunków w celu wybrania punktu wyjścia do rozwiązania problemów, śledzenia wyniku lub określenia pierwotnej przyczyny problemu.

Wykres Pareto to specjalna forma pionowego wykresu słupkowego, który pomaga zidentyfikować problemy i zdecydować, jak je rozwiązać. Budowa wykresu Pareto w oparciu o listy kontrolne lub inne formy zbierania danych pomaga skupić uwagę i wysiłek na naprawdę ważnych kwestiach. Możesz osiągnąć więcej, pracując na najwyższym drążku, nie zwracając uwagi na mniejsze drążki (rys. 5).

Ryc. 5 Wykres Pareto

Kolejność konstruowania wykresu Pareto:

1. Wybierz zagadnienia do porównania i uszereguj je według ważności (poprzez burzę mózgów z wykorzystaniem istniejących danych - raportów).

2. Określ kryterium porównywania jednostek miary (charakterystyka naturalna lub wartościowa).

3. Wyznacz okres czasu na naukę.

4.6 SCHEMAT PRZYCZYNY I SKUTKU (diagram Ishikawy)

Diagram Ishikawy (ości ryby) jest używany, gdy wymagane jest zbadanie i zobrazowanie wszystkich możliwych przyczyn pewnych problemów lub stanów.

Pozwala przedstawić związek między konsekwencją, skutkiem i wszystkimi możliwymi przyczynami, które na nie wpływają. Skutek, wynik lub problem jest zwykle oznaczony po prawej stronie diagramu, podczas gdy główne skutki lub „przyczyny” są wymienione po lewej stronie (Rysunek 6).

Ryc. 6 Diagram przyczynowo-skutkowy

Kolejność konstruowania diagramu przyczynowego:

1. Rozpocznij proces od opisu wybranego problemu, a mianowicie:

jego cechy;

Gdzie to występuje?

kiedy się pojawi

Jak daleko się rozprzestrzenia.

2. Wypisz powody potrzebne do zbudowania diagramu przyczynowego w jeden z następujących sposobów:

Przeprowadź sesję burzy mózgów, w której bez wcześniejszego przygotowania omówisz wszystkie możliwe przyczyny;

· Uważnie śledź wszystkie etapy procesu produkcyjnego i wskazuj na kartach kontrolnych możliwe przyczyny problemu.

3. Zbuduj prawdziwy diagram przyczynowo-skutkowy.

4. Spróbuj zinterpretować wszystkie relacje.

Aby znaleźć podstawowe przyczyny problemu, poszukaj przyczyn, które się powtarzają. Główne kategorie przyczynowe należy zapisać w najbardziej ogólnej formie. Używaj jak najmniejszej liczby słów.

4.7 HISTOGRAM

Używane, gdy chcesz zbadać i przedstawić rozkład danych o liczbie jednostek w każdej kategorii za pomocą wykresu słupkowego. Jak już widzieliśmy na wykresie Pareto, bardzo przydatne jest przedstawienie w postaci wykresu słupkowego częstotliwości, przy której występuje określone zdarzenie (tzw. rozkład częstotliwości). Jednak wykres Pareto dotyczy tylko cech produktu lub usługi: rodzajów wad, problemów, zagrożeń bezpieczeństwa itp.

Z kolei histogram dotyczy danych pomiarowych (temperatura, grubość) i ich rozkładu, który może być krytyczny, tj. mieć maksimum. Wiele powtarzających się zdarzeń daje wyniki, które zmieniają się w czasie.

Histogram pokazuje wielkość zmienności procesu. Typowy histogram może wyglądać jak ten pokazany na ryc. 7.

Ryc. 7 Histogram

Liczba klas (słupków na wykresie) jest określona przez liczbę pobranych próbek lub wykonanych obserwacji.

Niektóre procesy są z natury zniekształcone (niesymetryczne), więc nie należy oczekiwać, że każdy rozkład będzie miał postać krzywej dzwonowej.

Nie ufaj dokładności danych, jeśli klasy nagle zatrzymają się w pewnym momencie, na przykład na granicy specyfikacji, chociaż wcześniej liczba nie zmniejszyła się.

Jeśli krzywa ma dwa wierzchołki, oznacza to, że dane są zbierane z dwóch lub więcej różnych źródeł, tj. zmiany, maszyny itp.

4.8 WZÓR ROZPROSZENIA

Jest używany, gdy wymagane jest wyobrażenie sobie, co stanie się z jedną ze zmiennych, jeśli zmieni się druga zmienna, oraz przetestowanie założenia dotyczącego związku dwóch zmiennych.

Wykres rozrzutu służy do badania możliwego związku między dwiema zmiennymi.Patrząc na wykres rozrzutu, nie można powiedzieć, że jedna zmienna powoduje drugą, ale diagram wyjaśnia, czy istnieje związek między nimi i jaka jest siła tego związku . Wykres rozrzutu jest konstruowany w następującej kolejności: pomiary wartości jednej zmiennej są kreślone wzdłuż osi poziomej, a pomiary drugiej zmiennej są kreślone wzdłuż osi pionowej. Widok typowego diagramu rozpraszania pokazano na ryc. 8.

Ryc. 8 Wykres rozrzutu/>

4.9 KARTA KONTROLNA

Jednym z głównych narzędzi w szerokim arsenale statystycznych metod kontroli jakości są karty kontrolne. Powszechnie przyjmuje się, że pomysł wykresu kontrolnego należy do słynnego amerykańskiego statystyka Waltera L. Shewharta. Został on wyrażony w 1924 r., a szczegółowo opisany w 1931 r.

Początkowo służyły one do rejestrowania wyników pomiarów pożądanych właściwości wyrobu. Parametr wykraczający poza pole tolerancji wskazywał na konieczność zatrzymania produkcji i dostosowania procesu zgodnie z wiedzą specjalisty zarządzającego produkcją.

Dało to informację o tym, kiedy, kto, na jakim sprzęcie zawierał małżeństwa w przeszłości.

Jednak w tym przypadku decyzja o dostosowaniu została podjęta już po zawarciu małżeństwa. Dlatego ważne było znalezienie procedury, która zgromadziłaby informacje nie tylko do badania retrospektywnego, ale także do wykorzystania w podejmowaniu decyzji. Propozycja ta została opublikowana przez amerykańskiego statystyka I. Page'a w 1954 roku.

Karty używane do podejmowania decyzji nazywane są kumulatywnymi.

Wykres kontrolny (Rysunek 9) składa się z linii środkowej, dwóch granic kontrolnych (powyżej i poniżej linii środkowej) oraz wartości charakterystycznych (wynik jakości) naniesionych na mapę w celu przedstawienia stanu procesu.

Ryc. 9 Karta kontrolna

W określonych odstępach czasu wybiera się n wytwarzanych produktów (wszystko po kolei; wybiórczo; okresowo z ciągłego strumienia itp.) i mierzy kontrolowany parametr.

Wyniki pomiarów nanoszone są na kartę kontrolną iw zależności od tej wartości podejmowana jest decyzja o korekcie procesu lub kontynuacji procesu bez korekty.

Sygnałem o możliwym zaburzeniu procesu technologicznego może być:

Punkty wyjścia poza granice kontrolne (pkt 6); (proces wymyka się spod kontroli);

· położenie grupy kolejnych punktów w pobliżu jednej granicy kontrolnej, ale nie wychodzącej poza nią (11, 12, 13, 14), co świadczy o naruszeniu poziomu nastaw sprzętu;

· silne rozproszenie punktów (15, 16, 17, 18, 19, 20) na karcie kontrolnej względem linii środkowej, co świadczy o spadku dokładności procesu.

W przypadku pojawienia się sygnału o naruszeniu procesu produkcyjnego należy zidentyfikować i wyeliminować przyczynę naruszenia.

Tak więc karty kontrolne służą do identyfikacji konkretnej przyczyny, a nie przypadkowej. Określoną przyczynę należy rozumieć jako istnienie czynników, które umożliwiają badanie. Oczywiście takich czynników należy unikać.

Zmienność wynikająca z przyczyn losowych jest konieczna, nieuchronnie występuje w każdym procesie, nawet jeśli operacja technologiczna prowadzona jest przy użyciu standardowych metod i surowców. Wykluczenie przypadkowych przyczyn zmienności nie jest technicznie ani ekonomicznie wykonalne.

Należy kontrolować naturalne wahania między granicami kontrolnymi. Należy upewnić się, że wybrano prawidłowy typ wykresu kontrolnego dla określonego typu danych. Dane muszą być pobierane dokładnie w kolejności, w jakiej zostały zebrane, w przeciwnym razie stają się bez znaczenia. W okresie zbierania danych nie należy wprowadzać żadnych zmian w procesie. Dane powinny odzwierciedlać naturalny przebieg procesu. Lista kontrolna może wskazać potencjalne problemy, zanim wadliwy produkt zostanie wydany.

Istnieją dwa główne typy kart kontrolnych: dla cech jakościowych (zdany-niezaliczony) oraz dla cech ilościowych. W przypadku cech jakościowych możliwe są cztery typy kart kontrolnych:

V - mapa (liczba defektów na jednostkę produkcji)

C - mapa (liczba defektów w próbce)

P - mapa (procent wadliwych produktów w próbie)

NP - mapa (liczba elementów wadliwych w próbce)

Jednocześnie w pierwszym i trzecim przypadku liczebność próby jest zmienna, aw drugim i czwartym – stała.

Zatem cele stosowania kart kontrolnych mogą być następujące:

1. identyfikacja procesu niezarządzanego

2. sterowanie przez kontrolowany proces

3. ocena możliwości procesu

Zwykle bada się następującą zmienną (zmienną procesową) lub charakterystykę:

Znane ważne lub najważniejsze

chyba niewiarygodne

za pomocą którego musisz uzyskać informacje o możliwościach procesu

operacyjne, marketingowe

W takim przypadku nie jest konieczne jednoczesne kontrolowanie wszystkich wartości. Karty kontrolne kosztują, więc musisz z nich mądrze korzystać:

Starannie wybieraj funkcje

przestań pracować z kartami, gdy osiągniesz cel

Kontynuuj mapowanie tylko wtedy, gdy procesy i wymagania techniczne wzajemnie się powstrzymują

Należy pamiętać, że proces może być w stanie regulacji statystycznej i dawać 100% odrzutów. I odwrotnie, może być niewykonalne i wytwarzać produkty spełniające w 100% wymagania techniczne. Karty kontrolne pozwalają na analizę możliwości procesu.

Zdolność procesowa to zdolność do prawidłowego funkcjonowania. Z reguły przez zdolność procesową rozumie się zdolność do spełnienia wymagań technicznych.

4.10 METODY TAGUCHI

Pod koniec lat 60. japoński statystyk Taguchi zakończył rozwój idei statystyki matematycznej w odniesieniu do problemów planowania eksperymentów i kontroli jakości. Całość swoich pomysłów Taguchi nazwał „solidną metodą projektowania”.

Taguchi zaproponował charakteryzację wytwarzanych produktów poprzez stabilność właściwości technicznych, poprawił koncepcję odchylenia losowego, argumentując, że istnieją nieprzypadkowość, ale czynniki, które czasami trudno wyjaśnić.

Istotna różnica między metodami Taguchi polega na ich podejściu do podstawowych cech wytwarzanych produktów - jakości i kosztów. Dając pierwszeństwo czynnikowi ekonomicznemu (kosztowi), łączy on jednak koszt i jakość w jednej charakterystyce, zwanej funkcją strat.

Jednocześnie uwzględnia się straty zarówno po stronie konsumenta, jak i producenta.Zadaniem projektowania jest satysfakcja obu stron.

Taguchi stworzył niezawodną metodę obliczeniową wykorzystującą stosunek sygnału do szumu stosowaną w telekomunikacji, która stała się głównym narzędziem inżynierii jakości.

Taguchi wprowadził koncepcję idealnej funkcji produktu, zdefiniowanej przez idealny związek między sygnałami wejściowymi i wyjściowymi. Czynniki, które powodują pojawienie się różnic między rzeczywistymi cechami produktu a idealnymi, Taguchi nazywa hałasem.

Specjalista korzystający z metod Taguchiego musi być biegły w metodach przewidywania hałasu w dowolnej dziedzinie, czy to procesu technologicznego, czy marketingu.

Hałasy zewnętrzne to zmiany środowiska:

· wilgotność

Indywidualne cechy osoby itp.

Hałasy podczas przechowywania i eksploatacji to starzenie, zużycie itp. Hałasy wewnętrzne to usterki produkcyjne, które prowadzą do różnic między produktami nawet w ramach tej samej partii produkcyjnej. Przenosząc swoją metodę z warunków laboratoryjnych do rzeczywistych, G. Taguchi wykorzystuje wskaźnik stabilności do scharakteryzowania stosunku sygnału do szumu, rozumianego jako wysoka powtarzalność odpowiedzi.Obliczanie stabilności charakterystyk odbywa się w inżynierii jakości, a nie przez skomplikowaną pracę -intensywne metody, ale w oparciu o nową metodę planowania eksperymentu z wykorzystaniem analizy dyspersji.


Wniosek

Rosnący rozwój nowego dla naszego kraju ekonomicznego środowiska reprodukcji, tj. stosunki rynkowe, dyktuje konieczność ciągłego doskonalenia jakości przy wykorzystaniu wszelkich ku temu możliwości, wszystkich zdobyczy postępu w dziedzinie technologii i organizacji produkcji.

Najbardziej kompletna i wszechstronna ocena jakości jest zapewniona, gdy uwzględnione zostaną wszystkie właściwości analizowanego obiektu, które przejawiają się na wszystkich etapach jego cyklu życia: podczas produkcji, transportu, przechowywania, użytkowania, naprawy, konserwacji. praca.

Dlatego producent musi kontrolować jakość produktów i na podstawie wyników kontroli selektywnej oceniać stan odpowiedniego procesu technologicznego. Dzięki temu na czas wykrywa zaburzenie procesu i koryguje je.

Metody statystyczne (metody oparte na wykorzystaniu statystyki matematycznej) są skutecznym narzędziem zbierania i analizowania jakościowych informacji. Zastosowanie tych metod nie wymaga dużych nakładów finansowych i pozwala z zadaną dokładnością i wiarygodnością oceniać stan badanych zjawisk (obiektów, procesów) w systemie jakości, przewidywać i regulować problemy na wszystkich etapach cyklu życia produktu i na tej podstawie opracować optymalne decyzje zarządcze.


Bibliografia

1. Efimov V.V. Metody statystyczne w zarządzaniu jakością. Uljanowsk: UlGTU, 2003 - 134 s.

2. Statystyczne metody zarządzania jakością // www.lenobl.ru, 2005.

3. Klimanov V. Statystyczne metody zarządzania jakością// victor61058.narod.ru, 2004.

4. Okrepilov VV Zarządzanie jakością. Petersburg: Nauka, 2000. - 911 s.