Bài giảng Khai phá dữ liệu - Chương 3: Hồi quy dữ liệu - Võ Thị Ngọc Châu
Khảo sát các yếu tố tác động đến xu hướng
sử dụng quảng cáo trực tuyến tại Việt Nam
Sự giải trí cảm nhận (+0.209)
Chất lượng thông tin (+0.261)
Chất lượng thông tin cảm nhận (+0.199)
Sự khó chịu cảm nhận (-0.175)
Sự tin cậy cảm nhận
Thái độ về tính riêng tư
Sự tương tác (+0.373)
Chuẩn chủ quan (+0.254)
Nhận thức kiểm soát hành vi (+0.377)9
Tình huống
Hồi qui (regression)
Khai phá dữ liệu có tính dự báo (Predictive data
mining)
Tình huống ???
Khai phá dữ liệu có tính mô tả (Descriptive data
mining)
Tình huống ??
Bạn đang xem 20 trang mẫu của tài liệu "Bài giảng Khai phá dữ liệu - Chương 3: Hồi quy dữ liệu - Võ Thị Ngọc Châu", để tải tài liệu gốc về máy hãy click vào nút Download ở trên
Tóm tắt nội dung tài liệu: Bài giảng Khai phá dữ liệu - Chương 3: Hồi quy dữ liệu - Võ Thị Ngọc Châu
11 Chương 3: Hồi qui dữ liệu Học kỳ 1 – 2011-2012 Khoa Khoa Học & Kỹ Thuật Máy Tính Trường Đại Học Bách Khoa Tp. Hồ Chí Minh Cao Học Ngành Khoa Học Máy Tính Giáo trình điện tử Biên soạn bởi: TS. Võ Thị Ngọc Châu (chauvtn@cse.hcmut.edu.vn) 22 Tài liệu tham khảo [1] Jiawei Han, Micheline Kamber, “Data Mining: Concepts and Techniques”, Second Edition, Morgan Kaufmann Publishers, 2006. [2] David Hand, Heikki Mannila, Padhraic Smyth, “Principles of Data Mining”, MIT Press, 2001. [3] David L. Olson, Dursun Delen, “Advanced Data Mining Techniques”, Springer-Verlag, 2008. [4] Graham J. Williams, Simeon J. Simoff, “Data Mining: Theory, Methodology, Techniques, and Applications”, Springer-Verlag, 2006. [5] Hillol Kargupta, Jiawei Han, Philip S. Yu, Rajeev Motwani, and Vipin Kumar, “Next Generation of Data Mining”, Taylor & Francis Group, LLC, 2009. [6] Daniel T. Larose, “Data mining methods and models”, John Wiley & Sons, Inc, 2006. [7] Ian H.Witten, Eibe Frank, “Data mining : practical machine learning tools and techniques”, Second Edition, Elsevier Inc, 2005. [8] Florent Messeglia, Pascal Poncelet & Maguelonne Teisseire, “Successes and new directions in data mining”, IGI Global, 2008. [9] Oded Maimon, Lior Rokach, “Data Mining and Knowledge Discovery Handbook”, Second Edition, Springer Science + Business Media, LLC 2005, 2010. 33 Nội dung Chương 1: Tổng quan về khai phá dữ liệu Chương 2: Các vấn đề tiền xử lý dữ liệu Chương 3: Hồi qui dữ liệu Chương 4: Phân loại dữ liệu Chương 5: Gom cụm dữ liệu Chương 6: Luật kết hợp Chương 7: Khai phá dữ liệu và công nghệ cơ sở dữ liệu Chương 8: Ứng dụng khai phá dữ liệu Chương 9: Các đề tài nghiên cứu trong khai phá dữ liệu Chương 10: Ôn tập 44 Chương 3: Hồi qui dữ liệu 3.1. Tổng quan về hồi qui 3.2. Hồi qui tuyến tính 3.3. Hồi qui phi tuyến 3.4. Ứng dụng 3.5. Các vấn đề với hồi qui 3.6. Tóm tắt 55 3.0. Tình huống 1 Ngày mai giá cổ phiếu STB sẽ là bao nhiêu??? 66 3.0. Tình huống 2 x y y = x + 1 X1 Y1 Y1’ Mô hình phân bố dữ liệu của y theo x??? 77 3.0. Tình huống 3 Bài toán phân tích giỏ hàng thị trường (market basket analysis) Æ sự kết hợp giữa các mặt hàng? 88 3.0. Tình huống 4 Khảo sát các yếu tố tác động đến xu hướng sử dụng quảng cáo trực tuyến tại Việt Nam Sự giải trí cảm nhận (+0.209) Chất lượng thông tin (+0.261) Chất lượng thông tin cảm nhận (+0.199) Sự khó chịu cảm nhận (-0.175) Sự tin cậy cảm nhận Thái độ về tính riêng tư Sự tương tác (+0.373) Chuẩn chủ quan (+0.254) Nhận thức kiểm soát hành vi (+0.377) 99 3.0. Tình huống Hồi qui (regression) Khai phá dữ liệu có tính dự báo (Predictive data mining) Tình huống ??? Khai phá dữ liệu có tính mô tả (Descriptive data mining) Tình huống ??? 10 10 3.1. Tổng quan về hồi qui Định nghĩa - Hồi qui (regression) J. Han et al (2001, 2006): Hồi qui là kỹ thuật thống kê cho phép dự đoán các trị (số) liên tục. Wiki (2009): Hồi qui (Phân tích hồi qui – regression analysis) là kỹ thuật thống kê cho phép ước lượng các mối liên kết giữa các biến R. D. Snee (1977): Hồi qui (Phân tích hồi qui) là kỹ thuật thống kê trong lĩnh vực phân tích dữ liệu và xây dựng các mô hình từ thực nghiệm, cho phép mô hình hồi qui vừa được khám phá được dùng cho mục đích dự báo (prediction), điều khiển (control), hay học (learn) cơ chế đã tạo ra dữ liệu. R. D. Snee, Validation of Regression Models: Methods and Examples, Technometrics, Vol. 19, No. 4. (Nov., 1977), pp. 415-428. 11 11 3.1. Tổng quan về hồi qui Mô hình hồi qui (regression model): mô hình mô tả mối liên kết (relationship) giữa một tập các biến dự báo (predictor variables/independent variables) và một hay nhiều đáp ứng (responses/dependent variables). Y = f(X, β) X: các biến dự báo (predictor/independent variables) Y: các đáp ứng (responses/dependent variables) β: các hệ số hồi qui (regression coefficients) 12 12 3.1. Tổng quan về hồi qui Phương trình hồi qui: Y = f(X, β) X: các biến dự báo (predictor/independent variables) Y: các đáp ứng (responses/dependent variables) β: các hệ số hồi qui (regression coefficients) Æ X dùng để giải thích sự biến đổi của các đáp ứng Y. Æ Y dùng đề mô tả các hiện tượng (phenomenon) được quan tâm/giải thích. ÆQuan hệ giữa Y và X được diễn tả bởi sự phụ thuộc hàm của Y đối với X. Æ β mô tả sự ảnh hưởng của X đối với Y. 13 13 3.1. Tổng quan về hồi qui Phân loại Hồi qui tuyến tính (linear) và phi tuyến (nonlinear) Hồi qui đơn biến (single) và đa biến (multiple) Hồi qui có thông số (parametric), phi thông số (nonparametric), và thông số kết hợp (semiparametric) Hồi qui đối xứng (symmetric) và bất đối xứng (asymmetric) 14 14 3.1. Tổng quan về hồi qui Phân loại Hồi qui tuyến tính (linear) và phi tuyến (nonlinear) Linear in parameters: kết hợp tuyến tính các thông số tạo nên Y Nonlinear in parameters: kết hợp phi tuyến các thông số tạo nên Y [Regression and Calibration.ppt] 15 15 3.1. Tổng quan về hồi qui Phân loại Hồi qui đơn biến (single) và đa biến (multiple) Single: X = (X1) Multiple: X = (X1, X2, , Xk) 1 2ˆ 6 .3 9 7 2 2 0 .4 9 2 1 0 .2 8 0 5y x x= + + ˆ 26.89 4.06y x= + [Chapter 6 Regression and Correlation.ppt] 16 16 3.1. Tổng quan về hồi qui Phân loại Hồi qui có thông số (parametric), phi thông số (nonparametric), và thông số kết hợp (semiparametric) Parametric: mô hình hồi qui với hữu hạn thông số Nonparametric: mô hình hồi qui với vô hạn thông số Semiparametric: mô hình hồi qui với hữu hạn thông số được quan tâm [Wikipedia] [GAM - nonparameteric regression technique.ppt] P. Giudici, Applied Data Mining – Statistical Methods for Business and Industry, John Wiley & Sons Ltd, 2003. Y = β0 + β1*X1 + f(X2)Semiparametric Y = β0 + f(X)Nonparametric Y = β0 + β1*XParametric Mathematical FormTypes of (Additive) Model 17 17 3.1. Tổng quan về hồi qui Phân loại Hồi qui đối xứng (symmetric) và bất đối xứng (asymmetric) Symmetric: mô hình hồi qui có tính mô tả (descriptive) (eg. log-linear models) The objective of the analysis is descriptive – to describe the associative structure among the variables. Asymmetric: mô hình hồi qui có tính dự báo (predictive) (eg. linear regression models, logistic regression models ) The variables are divided in two groups, response and explanatory – to predict the responses on the basis of the explanatory variables. Æ Generalized linear models: symmetric vs. asymmetric P. Giudici, Applied Data Mining – Statistical Methods for Business and Industry, John Wiley & Sons Ltd, 2003. 18 18 3.2. Hồi qui tuyến tính Hồi qui tuyến tính đơn biến Đường hồi qui (regression line) Hồi qui tuyến tính đa biến Mặt phẳng hồi qui (regression plane) 19 19 3.2.1. Hồi qui tuyến tính đơn biến Cho N đối tượng đã được quan sát, mô hình hồi qui tuyến tính đơn biến được cho dưới dạng sau với εi dùng giữ phần biến thiên của đáp ứng Y không được giải thích từ X: -Dạng đường thẳng -Dạng parabola 20 20 3.2.1. Hồi qui tuyến tính đơn biến •Y= β0 + β1*X1 → Y = 0.636 + 2.018*X •Dấu của β1 cho biết sự ảnh hưởng của X đối với Y. 21 21 3.2.1. Hồi qui tuyến tính đơn biến Ước lượng bộ thông số β ( ) để đạt được mô hình hồi qui tuyến tính đơn biến Thặng dư (residual) Tổng thặng dư bình phương (sum of squared residuals) Æ tối thiểu hóa Trị ước lượng của β Giả định (assumptions): thành phần lỗi có phương sai (variance) là hằng số, tuân theo phân bố chuẩn (normal distribution). xi, yi: trị của x, y từ tập dữ liệu huấn luyện x, y: trị trung bình từ tập dữ liệu huấn luyện ŷi: trị ước lượng với bộ thông số β 22 22 3.2.2. Hồi qui tuyến tính đa biến Hồi qui tuyến tính đa biến: phân tích mối quan hệ giữa biến phụ thuộc (response/dependent variable) và hai hay nhiều biến độc lập (independent variables) yi = b0 + b1xi1 + b2xi2 + + bkxik i = 1..n với n là số đối tượng đã quan sát k = số biến độc lập (số thuộc tính/tiêu chí/yếu tố) Y = biến phụ thuộc X = biến độc lập b0 = trị của Y khi X = 0 b1..k = trị của các hệ số hồi qui 23 23 3.2.2. Hồi qui tuyến tính đa biến 0 1 1 2 2ˆ k ky b b x b x b x= + + + +K ( ) YXXXb TT 1−= 1,1 1,2 1,1 0 2,1 2,2 2,2 1 ,1 ,2 , 1 1 , , 1 k k n n n kn k x x xY b x x xY b x x xY b = = = Y X b K K M M M MM M K Trị ước lượng của Y Trị ước lượng của bộ thông số b 24 24 3.2.2. Hồi qui tuyến tính đa biến Example: a sales manager of Tackey Toys, needs to predict sales of Tackey products in selected market area. He believes that advertising expenditures and the population in each market area can be used to predict sales. He gathered sample of toy sales, advertising expenditures and the population as below. Find the linear multiple regression equation which the best fit to the data. [Chapter 6 Regression and Correlation.ppt] 25 25 3.2.2. Hồi qui tuyến tính đa biến 40060010.0F 1001003.0E 2004006.0D 4008008.0C 3007005.0B 1002001.0A Toy sales (Thousands of Dollars) y Population (Thousands) x2 Advertising Expenditures (Thousands of Dollars) x1 Market Area [Chapter 6 Regression and Correlation.ppt] 26 26 3.2.2. Hồi qui tuyến tính đa biến 1 2ˆ 6.3972 20.4921 0.2805y x x= + + [Chapter 6 Regression and Correlation.ppt] 27 27 3.3. Hồi qui phi tuyến Y = f(X, β) Y là hàm phi tuyến cho việc kết hợp các thông số β. Ví dụ: hàm mũ, hàm logarit, hàm Gauss, Xác định bộ thông số β tối ưu: các giải thuật tối ưu hóa Tối ưu hóa cục bộ Tối ưu hóa toàn cục cho tổng thặng dư bình phương (sum of squared residuals) 28 28 3.4. Ứng dụng Quá trình khai phá dữ liệu Giai đoạn tiền xử lý dữ liệu Giai đoạn khai phá dữ liệu Khai phá dữ liệu có tính mô tả Khai phá dữ liệu có tính dự báo Các lĩnh vực ứng dụng: sinh học (biology), nông nghiệp (agriculture), xã hội (social issues), kinh tế (economy), kinh doanh (business), P. Giudici, Applied Data Mining – Statistical Methods for Business and Industry, John Wiley & Sons Ltd, 2003. 29 29 3.5. Các vấn đề với hồi qui Các giả định (assumptions) đi kèm với bài toán hồi qui. Lượng dữ liệu được xử lý. Đánh giá mô hình hồi qui. Các kỹ thuật tiên tiến cho hồi qui: Artificial Neural Network (ANN) Support Vector Machine (SVM) 30 30 3.6. Tóm tắt Hồi qui Kỹ thuật thống kê, được áp dụng cho các thuộc tính liên tục (continuous attributes/features) Có lịch sử phát triển lâu đời Đơn giản nhưng rất hữu dụng, được ứng dụng rộng rãi Cho thấy sự đóng góp đáng kể của lĩnh vực thống kê trong lĩnh vực khai phá dữ liệu Các dạng mô hình hồi qui: tuyến tính/phi tuyến, đơn biến/đa biến, có thông số/phi thông số/thông số kết hợp, đối xứng/bất đối xứng 31 31 Hỏi & Đáp 32 32 Chương 3: Hồi qui dữ liệu Phần 2 33 33 Nội dung Generalized linear models Æ [2], section 11.3, pp. 384-390. Logistic regression Æ [2], section 10.7, pp. 354-355. Æ [9], section 25.3, pp. 529-532. Generalized additive models Æ [2], section 11.5.1, pp. 393-395. Projection pursuit regression Æ [2], section 11.5.2, pp. 395-397. 34 34 Generalized linear models Linear models: the response variable was decomposed into two parts a weighted sum of the predictor variables a random component: assumed that the ε(i) were independently distributed as N (0, σ2) The generalized linear model extends the ideas of linear models. 35 35 Generalized linear models Generalized linear model (i) The Y(i) are independent random variables, with distribution N(µ(i), σ2). Relax the requirement: random variables follow a normal distribution (ii) The parameters enter the model in a linear way via the sum v(i) = ∑ajxj(i). (iii) The v(i) and µ(i) are linked by v(i) = µ(i). Generalize: g(µ(i)) = v(i) relates the parameter of the distribution to the linear term v(i) = ∑ajxj(i) 36 36 Generalized linear models The generalized linear model has three main features (i) The Y(i), i=1, n, are independent random variables, with the same exponential family distribution The exponential family of distributions is an important family that includes the normal, the Poisson, the Bernoulli, and the binomial distributions. If ø is known, then θ is called the natural or canonical parameter. When, as is often the case, α(ø) = ø, ø is called the dispersion or scale parameter. (ii) The predictor variables are combined in a form v(i) = ∑ajxj(i) called the linear predictor, where the ajs are estimates of the αjs. (iii) The mean µ(i) of the distribution for a given predictor vector is related to the linear combination in (ii) through the link function g(µ(i)) = v(i) = ∑ajxj(i). 37 37 Generalized linear models Prediction from a generalized linear model requires the inversion of the relationship g(µ(i)) = ∑ajxj(i). The nonlinearity means that an iterative scheme has to be adopted. Maximum likelihood solution A measure of the goodness of fit of a generalized linear model, analogous to the sum of squares used for linear regression: the deviance D(M) of a model the sum of squares is the special case of deviance when it is applied to linear models the difference between the log likelihood of model M and the log likelihood of the largest model we are prepared to contemplate, M* 38 38 Logistic regression Logistic function the parameter β determines the rate of growth or increase of the curve the sign of β indicates whether the curve increases or decreases the magnitude of β determines the rate of that increase or decrease β > 0: (x) increases as x increases. β < 0: π(x) decreases as x increases. β → 0: the curve tends to become a horizontal straight line. When β = 0, Y is independent of X. π(x) = (a). β > 0 (b). β < 0 39 39 Logistic regression Logistic regression Æ logistic discriminant analysis Descriptive model a very powerful tool for classification problems in discriminant analysis Æ tends to have higher accuracy when training data is plenty as compared to Naïve Bayes applied in many medical and clinical research studies As a neural network model without hidden nodes and with a logistic activation function and softmax output function The yis are binary variables and thus not normally distributed. The distribution of yi given x is assumed to follow a Bernoulli distribution: Æ a linear function of x 40 40 Logistic regression Logistic regression Æ logistic discriminant analysis Estimate the β’s: maximum likelihood Æ find the smallest possible deviance between the observed and predicted values (kind of like finding the best fitting line) using calculus (derivatives specifically) Æ use different "iterations" in which it tries different solutions until it gets the smallest possible deviance or best fit Æ Once it has found the best solution, it provides a final value for the deviance D, which is usually referred to as "negative two log likelihood“ thought of as a Chi-square value. π(x) = p(y=1|x) = −= elfulltheoflikelihood elreducedtheoflikelihoodD mod modln2 Likelihood of the reduced model = likelihood of predicted values (π(x)) Likelihood of the full model = probabilities of observed values (y=1/0) 41 41 Logistic regression The parameter estimates for the five variables selected in the final model, with the corresponding Wald statistics No variable appears to be not significant, using a significance level of 0.05. The variable Vdpflart indicates whether or not the price of the first purchase is paid in instalments; it is decisively estimated to be the variable most associated with the response variable. P. Giudici, Applied Data Mining – Statistical Methods for Business and Industry, John Wiley & Sons Ltd, 2003, p.166. 42 42 Generalized additive models Extension of the generalized linear model Replace the simple weighted sums of the predictor variables by weighted sums of transformed versions of the predictor variables The right-hand side is sometimes termed the additive predictor. The relationships between the response variable and the predictor variables are estimated nonparametrically. greater flexibility When some of the functions are estimated from the data and some are determined by the researcher, the generalized additive model is sometimes called “semiparametric.” 43 43 Generalized additive models The model retains the merits of linear and generalized linear models. How g changes with any particular predictor variable does not depend on how other predictor variables change. Interpretation is eased. This is at the cost of assuming that such an additive form does provide a good approximation to the “true” surface. The model can be readily generalized by including multiple predictor variables within individual f components of the sum. Relaxing the simple additive interpretation The additive form also means that we can examine each smoothed predictor variable separately, to see how well it fits the data. 44 44 Generalized additive models A GAM fitting algorithm Backfitting algorithm to estimate functions fj and constant α Proceed the following steps 1. Initialize 2. Cycle 3. Continue 2 until the individual functions do not change. [9], pp. 218-219. 45 45 Generalized additive models A GAM fitting algorithm 1. Initialize: α =yi, fj = fj0, j = 1, , p. Each predictor is given an initial functional relationship to the response such as a linear one. The intercept is given an initial value of the mean of y. 2. Cycle: j = 1, , p,1, , p, ... A single predictor is selected. Fitted values are constructed using all of the other predictors. These fitted values are subtracted from the response. A smoother Sj is applied to the resulting “residuals,” taken to be a function of the single excluded predictor. The smoother updates the function for that predictor. Each of the other predictors is, in turn, subjected to the same process. 3. Continue 2 until the individual functions do not change. 46 46 Generalized additive models These “adaptive” methods seem to be most useful when the data have a high signal to noise ration, when the response function is highly nonlinear, when the variability in the response function changes dramatically from location to location. Æ Experience to date suggests that data from the engineering and physical sciences are most likely to meet these criteria. ÆData from the social sciences are likely to be far too noisy. 47 47 Generalized additive models Neural networks are a special case of the generalized additive linear models. Multilayer feedforward neural networks with one hidden layer where m is the number of processing-units in the hidden layer. The family of functions that can be computed depends on the number of neurons in the hidden layer and the activation function σ . Note that a standard multilayer feedforward network with a smooth activation function σ can approximate any continuous function on a compact set to any degree of accuracy if and only if the network’s activation function σ is not a polynomial. 48 48 Projection pursuit regression The additive models essentially focus on individual variables (albeit transformed versions of these). The additive models can be extended so that each additive component involves several variables, but it is not clear how best to select such subsets. If the total number of available variables is large, then we may also be faced with a combinatorial explosion of possibilities. 49 49 Projection pursuit regression The basic projection pursuit regression model This is a linear combination of (potentially nonlinear) transformations of linear combinations of the raw variables. The f functions are not constrained (as in neural networks) to take a particular form, but are usually found by smoothing, as in generalized additive models. The term projection pursuit arises from the viewpoint that one is projecting X in direction αk, and then seeking directions of projection that are optimal for some purpose. optimal as components in a predictive model the model is fitted using standard iterative procedures to estimate the parameters in the αk vector. 50 50 Projection pursuit regression The projection pursuit regression model has obvious close similarities to the neural network model. A generalization of neural networks Projection pursuit regression models can be proven to have the same ability to estimate arbitrary functions as neural networks, but they are not as widely used. Estimating their parameters can have advantages over the neural network situation. Projection pursuit regression tends may not be practical for data sets that are massive (large n) and high-dimensional (large p). The fitting process is rather complex from a computational viewpoint. 51 51 Tóm tắt Regression Linear models Generalized linear model Logistic models Feedforward neural networks Back-propagration neural networks Generalized additive models Projection pursuit regression Æ Linearity to Nonlinearity ÆDescriptive vs. Predictive 52 52 Đọc thêm Predictive modeling for regression [2], chapter 11, pp. 367-398. Regression modeling, multiple regression and model building, logistic regression [6], chapter 2-4, pp. 33-203. Data mining within a regression framework [9], chapter 11, pp. 209-230. Statistical methods for data mining [9], chapter 25, pp. 523-540. Validation of regression models: methods and examples Ronald D. Snee, Technometrics, vol. 19, no. 4 (Nov, 1977), pp. 415-428. Choosing between logistic regression and discriminant analysis S. James Press, Sandra Wilson, Journal of the American Statistical Association, vol. 73, no. 364 (Dec, 1978), pp. 699-705. Fitting curves to data using nonlinear regression: a practical and nonmathematical review Harvey J. Motulsky, Lennart A. Ransnas, FASEB J., vol. 1 (1987), pp. 365-374.
File đính kèm:
- bai_giang_khai_pha_du_lieu_chuong_3_hoi_quy_du_lieu_vo_thi_n.pdf