数据挖掘常用模型构建示例(R语言版)

Linear Regression

library(MASS)
lm_fit = lm(medv~poly(rm,2)+crim,data = Boston) # 构建线性模型
summary(lm_fit) # 检查线性模型

Ridge Regreesion and Lasso

# 岭回归与lasso回归跟其他模型不同,不能直接以公式的形式把数据框直接扔进去,也不支持subset;所以数据整理工作要自己做
library(glmnet)
library(ISLR)
Hitters = na.omit(Hitters)
x = model.matrix(Salary~., Hitters)[,-1] # 构建回归设计矩阵
y = Hitters$Salary
ridge.mod = glmnet(x,y,alpha = 0,lambda = 0.1) # 构建岭回归模型
lasso.mod = glmnet(x,y,alpha = 1,lambda = 0.1) # 构建lasso回归模型

Logistic Regression

library(ISLR)
train = Smarket$Year<2005
logistic.fit = glm(Direction~Lag1+Lag2+Lag3+Lag4+Lag5+Volume,data=Smarket,family=binomial, subset=train) # 构建逻辑回归模型
glm.probs = predict(glm.fit,newdata=Smarket[!train,],type="class")

K-Nearest Neighbor

library(class)
library(ISLR)
standardized.X=scale(Caravan[,-86]) # 先进行变量标准化
test <- 1:1000
train.X <- standardized.X[-test,]
train.Y <- Caravan$Purchase[-test]
test.X <- standardized.X[test,]
test.Y <- Caravan$Purchase[test]
knn.pred <- knn(train.X,test.X,train.Y,k=3) # 直接给出测试集预测结果

Naive Bayse

library(e1071)
classifier<-naiveBayes(iris[,c(1:4)],iris[,5]) # 构建朴素贝叶斯模型
table(predict(classifier,iris[,-5]),iris[,5]) # 应用朴素贝叶斯模型预测

Decision Tree

library(tree)
library(ISLR)
attach(Carseats)
High = ifelse(Sales <= 8 ,"No","Yes")
Carseats = data.frame(Carseats,High)
train = sample(1:nrow(Carseats),200)
Carseats.test = Carseats[-train,]
High.test = High[-train]

tree.carseats = tree(High~.-Sales,Carseats,subset=train) # 建立决策树模型
summary(tree.carseats)
# 可视化决策树
plot(tree.carseats)
text(tree.carseats,pretty = 0)

Random Forest

library(randomForest)
library(MASS)
train = sample(1:nrow(Boston),nrow(Boston)/2)
boston.test = Boston[-train,]
rf.boston = randomForest(medv~.,data = Boston,subset = train,mtry=6,importance=T)
rf.boston
summary(rf.boston)

Boosting

library(gbm)
library(MASS)
train = sample(1:nrow(Boston),nrow(Boston)/2)
boston.test = Boston[-train,]
boost.boston = gbm(medv~.,data = Boston[train,],distribution = "gaussian",n.trees=5000,interaction.depth=4)
boost.boston
summary(boost.boston)

Princpal Content Analysis

library(ISLR)
pr.out = prcomp(USArrests,scale. = T)
pr.out$rotation
biplot(pr.out,scale = 0)

Apriori

library(arules)  #加载arules程序包
data(Groceries)  #调用数据文件
frequentsets=eclat(Groceries,parameter=list(support=0.05,maxlen=10))  #求频繁项集
inspect(frequentsets[1:10])    #察看求得的频繁项集
inspect(sort(frequentsets,by="support")[1:10])    #根据支持度对求得的频繁项集排序并察看(等价于inspect(sort(frequentsets)[1:10])
rules=apriori(Groceries,parameter=list(support=0.01,confidence=0.01))    #求关联规则
summary(rules)    #察看求得的关联规则之摘要
x=subset(rules,subset=rhs%in%"whole milk"&lift>=1.2)    #求所需要的关联规则子集
inspect(sort(x,by="support")[1:5])    #根据支持度对求得的关联规则子集排序并察看

K-means and Hierarchical Clustering

library(ISLR)
nci.labels = NCI60$labs
nci.data = NCI60$data
sd.data = scale(nci.data)
data.dist = dist(sd.data)
# k-means
km.out = kmeans(sd.data,4,nstart = 20)
# Hierarchical Clustering 
hc.out = hclust(dist(sd.data))
plot(hc.out,labels = nci.labels)

Support Vector Machine

library(e1071)
library(ISLR)
dat = data.frame(x = Khan$xtrain,y = as.factor(Khan$ytrain))
out = svm(y~.,data = dat, kernel = "linear", cost = 10)
summary(out)

Artificial Neural Network

library(AMORE)
x1 <- round(runif(2000,1,2000))         #随机生成2000个数
x2 <- round(runif(2000,1,2000))         
x11 <- scale(x1[1:1900])                            #数据标准化,并选取1900个组作为学习集
x12 <- scale(x2[1:1900])              
x21 <- scale(x1[1901:2000])               #选取100组作为待测集
x22 <- scale(x2[1901:2000])
y1 <- x11^2+x12^2
y2 <-x21^2+x22^2
p <-cbind(x11,x12)                     #整合为矩阵
q <-cbind(x21,x22)
target = y1

net<-newff(n.neurons=c(2,2,1),learning.rate.global=1e-2,momentum.global=0.4,error.criterium="LMS", Stao=NA,hidden.layer="tansig",
           output.layer="purelin",method="ADAPTgdwm")
result <- train(net, p, target,error.criterium="LMS", report=TRUE, show.step=100, n.shows=5 )

z <- sim(result$net, q)          #对待测集进行预测
plot(q[1:100,1],z, col="blue",pch="+")         #画出待测集模型运算后的图形
points(q[1:100,1],y2,col="red", pch="x")     #画出待测集图形,并比较两者之间的差异。
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 211,743评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,296评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,285评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,485评论 1 283
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,581评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,821评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,960评论 3 408
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,719评论 0 266
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,186评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,516评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,650评论 1 340
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,329评论 4 330
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,936评论 3 313
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,757评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,991评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,370评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,527评论 2 349

推荐阅读更多精彩内容

  • How Designers Built The World Of "The Grand Budapest Hote...
    三道贩阅读 209评论 0 1
  • 阳光透过巨大的落地窗洒进来,桌前的植物正欣欣向荣地进行着光合作用。桌上的文案散发出阵阵墨香,书架上几本书也正安静的...
    芥舟_阅读 525评论 0 1
  • 从平凡看生活,会看见快乐 从现在看过去,会看见无知;从宽容看是非,会看见解脱;从接受看命运,会看见踏实;从平凡看生...
    xcy无名阅读 363评论 0 0
  • 子落轩冉 (微信号ZLXR666666) 一个人在林荫小道漫步,一个人路过不属于自己的风景,一个...
    子落轩冉阅读 294评论 0 3
  • 今天需要一个需求,需要做一个省市级联的二级选择下拉框,ant design官网,推荐使用Cascader组件,并且...
    Tina任阅读 13,537评论 2 1