【Machine Learning】从零最先,了解监督学习的法门

莫非是自家找的太认真了?我摸着头,一脸疑惑。

1.1 一种普遍的上学格局 — 泛化(generalization)

  • 泛化的概念
  • 从集合的角度:表明式P比表明式Q更泛化,当且仅当P ⊇ Q
  • 譬如说我们得以将
    排球,篮球,足球 ==(泛化为)==>球类或者运动
  • 机械学习中最紧要的泛化操作有:
  • 变量替换常量
  • 从合取表达式中去掉一部分尺码
  • 对表达式增添一个析取式
  • 用属性的超类替换属性

本人成了他们的头,在她们眼里,我仿佛无所不知。

2.2.2 一般到独特
  • 珍贵一个万一集G(即候选概念集合)
  • 最相似概念(马克斯(Max)imally general concept)
    一个概念c是最相似的,假设:
    ① 覆盖所有正例,而不掩盖反例
    ② 对于自由其他不掩盖反例的概念c’, c ≥ c’

下图的背景为:
size = {large, small}
color = {red, white, blue}
shape = {ball, brick, cube}
故此由第一个反例我们得以特化出:
size不能是small => obj(large, Y, Z)
color不能是red => obj(X, white, Z) 和 obj(X, blue, Z)
shape不能是brick =>obj(X, Y, ball) 和 obj(X, Y, cube)

由一般到独特的摸索

于是乎交了钱的连夜,我就搬过去了。

2.1 变形空间(version space)的概念

张三望着天涯一处灯火,这鬼地点,转了半天反而离灯火越来越远了。

2.2.3 候选解排除
  • 候选解排除法综合上边二种艺术,双向搜索
  • 保障两个候选概念集合S和G
  • 算法特化G并泛化S直到它们没有在对象概念上

Screenshot at May 04 00-40-53.png

刻钟候放暑假,因为老人上班的关系,他们都会把自身送到山乡外祖父家里去玩。

2. 变形空间搜索

Version space search (Mitchell 1978, 1979, 1982) illustrates the
implementation of inductive learning as search through a concept
space.

简单的说就是从磨炼实例可以生成一个概念空间,比如上图。然后再从概念空间中搜索一个能覆盖不无概念的定义。
比如上图的Obj(X, Y, Z)。

小女孩的尸体被装进了塑料袋,放进后备箱。

参考文献

  1. Artificial Intelligence,6th
    Edition
  2. 从决策树学习谈到贝叶斯分类算法、EM、HMM
  3. 机械学习经典算法详解及Python实现–决策树(Decision
    Tree)
  4. Scikit-learn
    文档

于是等到夜幕低垂,我打初叶电便朝着坟地进发。去坟地要通过一间破败的房屋,我原先白天的时候来过,这里没有人。这天经过的时候,忽然看见一个年级与自己基本上的小女孩在这边哭。

2.3 评估候选解排除算法

中途上车的户外运动男突然下车,说了句,交给自己!

1.2 通过泛化举办概念学习

  • 如何是覆盖(covering)?
    如若说概念P比概念q更泛化,我们就说p覆盖q

  • 概念空间(concept space)的定义

  • 概念空间是部分地下的概念集合

  • 暧昧概念(potential concept / candidate
    concept)是由泛化、特化等学习方法发生的
    下图就是一个有所如下属性和值的object的概念空间
    Size = {small, large}
    Color = {red, white, blue}
    Shape = {ball, brick, cube}

概念空间

从下至上是一个泛化的过程,比如Obj(X, Y, ball)就足以覆盖Obj(X, red,
ball)和Obj(small, X, ball)等等,这也是由此泛化就行概念学习的反映。


此地的松树,发出的花香其实是迷药。庙祝冷冷的说。

3.2.4 CART

CART (Classification and Regression Trees) is very similar to C4.5, but
it differs in that it supports numerical target variables (regression)
and does not compute rule sets. CART constructs binary trees using the
feature and threshold that yield the largest information gain at each
node.

她立刻全体人就懵了,完全不晓得咋办。

3.3 ID3算法详解

庙祝眼里滑过泪水,喃喃的说:孙女,看本身为您报仇!

3.3.3 怎么样判定最佳分类属性

ID3算法是由Quinlan首先提议的,该算法是以信息论(Information
Theory)为根基的,ID3通过把各种属性当作当前树的根节点来度量音信增益,然后算法采纳提供最大信息增益的性能。

① 音讯增益的心胸标准 – (Entropy)
熵首假设指消息的繁杂程度,变量的不确定性越大,熵的值也就越大。
变量的不确定性重要可以显示在五个方面:

  • 可能信息的数量
    简单易行地说,掷硬币有二种可能新闻(正面或者反面),掷筛子有六种可能信息(1,2,3,4,5,6),所以正确预测筛子的新闻对我们更有价值:掷筛子游戏赢钱更多。
  • 每条音讯出现的票房价值
    简简单单地说,固然我们只要对掷硬币作弊使它正面出现的几率为3/4。那么既然我一度知晓猜正面的票房价值为3/4,告诉自己掷硬币结果的音信就不如有关未作弊的硬币的新闻更有价值。(前边讲了切实测算)

综上,给定音信空间M = {m1, m2, …..}以及对应的概率P(mi),熵的公式为:

熵的公式

未作弊和舞弊的熵计算如下:

未作弊的熵值总计

作弊后的熵值总计

为作弊熵值更大,掷硬币的信息更有价值!!!

② 音信增益(Information Gain)
如果有训练实例集C。如果大家由此属性P作为当下树的根结点,将把C分成子集{C1,
C2, C3 …..}。再把P当作跟结点完成树所需的音信的只求为:

形成树所需的音信的盼望

由此从依附性P得到的增益通过树的总新闻量减去成功树的信息期望来计算:

音信增益

要么举信用风险的例子,P(low)=5/14,
P(moderate)=3/14,P(high)=6/14。所以总新闻量总计如下:

总信息量

比方把收入(income)作为树的根结点,表中的实例被剪切为C1 = {1,4,7,11}、C2
= {2,3,12,14}和C3 = {5,6,8,9,10,13}。

决策树的一局部

形成树所需的期望值为:

姣好树所需的盼望值

最后,gain(income) = 1.531 – 0.564 = 0.967 bits
看似的,可以拿走:

属性 信息增益(bits)
gain(credit history) 0.266
gain(debt) 0.063
gain(collateral) 0.206

鉴于低收入提供了最大的音讯增益,所以ID3会选拔它作为根结点。

讲哪些故事?张三也是个不安分的主。

2.3.1 优点
  • 候选解排除算法是增量式的(incremental),所以不同于其他的算法需要在读书以前交付所有训练实例

住进去的当晚,我就意识了不规则。

3.2.1 ID3

ID3 was developed in 1986 by Ross Quinlan. The algorithm creates a
multiway tree, finding for each node (i.e. in a greedy manner) the
categorical feature that will yield the largest information gain for
categorical targets. Trees are grown to their maximum size and then a
pruning step is usually applied to improve the ability of the tree to
generalise to unseen data.

下文会重点介绍ID3算法

妈蛋,竟然欺负我家婴儿!鬼差狠狠地说:看本身不拿他们下十八层地狱!

3.3.4 评价ID3

即便如此ID3算法暴发简单的决策树(包括根结点,决策结点和叶结点),但这种树对预测未知实例的归类不见得一定有效。

本身要算账!庙祝恶狠狠的说。

3.2.3 C5.0

C5.0 is Quinlan’s latest version release under a proprietary license. It
uses less memory and builds smaller rulesets than C4.5 while being more
accurate.

本人愣在这里,女孩突然笑了,说道:我认识您,你怎么帮自己找了这么久仍旧不曾找到布娃娃?

3.1 什么是决策树?

机械学习中,决策树是一个预测模型;他代表的是目标属性(property)与目标值(value)之间的一种炫耀关系。树中各样节点代表某个对象,而每个分割路径则象征的某部可能的属性值,而每个叶结点则对应从根节点到该叶节点所经历的门径所代表的目的的值。决策树仅有单纯输出,若欲有复数输出,可以创设独立的决策树以拍卖不同输出。
-来自 Wikipedia

  • 决策树可以分为分类树回归树,分别指向于离散变量和连续变量。
  • 再简单点说就是,建立一棵能把具备练习多少举行科学分类的树型结构。

下面举个简易的例子助于精通。对于估量个人信用风险(risk)问题,要按照这样一些性能,比如信用历史(credit
history)、眼前债务(debt)、抵押(collateral)和收入(income)。下表列出了已知信用风险的私有的样本。

已知信用风险的村办的样书

基于下边的音信,大家得以博得下面七个例外的决策树。

决策树 A

决策树 B

俺们可以发现,即使两棵决策树都能对给定实例集举办不易分类,但是决策树B要比决策树A简短得多。可见,对给定实例集分类所必不可少的树的深浅,随测试属性的逐一而不同。

不过本次自己一贯不睡觉,我只是关所有的灯,然后躲在厨房外面,只等水龙头滴水的声音响起,登时冲进去看看到底。

2.3.2 缺点
  • 像任何搜索问题一样,基于搜索的上学总得处理问题空间的统一问题
  • 候选解排除算法是不可以有噪音(noise)的

你们了解,一个人在城池里打拼,买套房屋不便于,即便是二手的,我也以为自己很了不起了。


自家怒火中烧,心道:哪家的熊孩子,大半夜不睡觉啊!

3.2 常见的确立决策树的算法

于是我就以小于市面房价10%的价格买下了这套房子。

1. 概念学习

在这么些远离城区几十公里小村庄,荒无人烟,早就被政党屏弃了,能迁走的都迁走了,不可能迁走的鳏夫只好在村子里等死。偏偏公司目的在于在此处建一个别墅群,派了张三过来考察地形。遇上下雨的鬼天气,在黝黑的山里根本找不到路。

目录##\

1. 概念学习 (concept
learning)

2. 变形空间搜索 (Version space
search)

3. 决策树 (Decision tree)


自我从猫眼里望出去,外面一片漆黑,使劲跺一脚,楼道的声控灯亮起来,依然空无一物。

3.2.2 C4.5

C4.5 is the successor to ID3 and removed the restriction that features
must be categorical by dynamically defining a discrete attribute (based
on numerical variables) that partitions the continuous attribute value
into a discrete set of intervals. C4.5 converts the trained trees (i.e.
the output of the ID3 algorithm) into sets of if-then rules. These
accuracy of each rule is then evaluated to determine the order in which
they should be applied. Pruning is done by removing a rule’s
precondition if the accuracy of the rule improves without it.

上任一看,一个小女孩躺在车下,手里拿着一个布娃娃。

3.4 评估决策树

  • 决策树适用于离散型数据,变量的结果是个别集合。
  • 优点
    • 决策树总计复杂度不高,便于使用,高效!
    • 决策树可以拍卖具有不相干特征的多少。
    • 决策树可以很容易的构造出一体系易于精晓的条条框框。
  • 缺点
    • 处理缺失数据,坏数据的以及连续型数据的孤苦。
    • 大的数据集可能会生出很大的决策树。
    • 疏忽了数量集中属性之间的关联。
    • 过火拟合(涉及到剪枝)

交互通了姓名,这个戴眼镜,一脸斯文的是李四,本来是从老家回城里,开车到中途,车坏了,手机没电联系不上救援队,加上天气糟糕又下雨,看见这里有灯火就走了回复。

2.2.1 特殊到一般
  • 保障一个万一集S (即候选概念定义集)
  • 最与众不同的泛化(马克斯imally specific generalization)
    一个概念c是最特异的,倘若:
    ① 遮盖所有正例,而不掩盖反例
    ② 对于拥有其他覆盖正例的概念c’, c ≤ c’

由新鲜到一般的寻找

自我乐意的躺下,睡了下来!

3.3.2 ID3算法的基本思路

给定磨练实例集和能对它们正确分类的一组不同的决策树,我们想要知道哪棵树对前途实例正确分类的可能最大。ID3算法假定可能最大的树是可以覆盖所有磨炼实例的最简易的决策树
注:ID3不能够担保每一趟都生成最小的树,只是一种启发式算法

ID3采纳自顶向下决策树归咎(Top-Down Decision Tree Induction):

  • 篮球,首先确定哪一个性质作为根节点(root node)的测试
  • 慎选分类能力最好的(音讯增益最大)属性,作为近来节点(current
    node)的测试
  • 用这一个测试来划分实例集,该属性的每一个也许值都改为一个划分(partition)
  • 对于每一个划分重复上述过程,建立其子树
  • 以至于一个分割中的所有成员在同一连串中,这么些体系成为树的叶节点(leaf
    node)

注:我们得以把拥有可能的决策树集合看成是概念一个变形空间(version
space)。ID3在具备的或者树的上空中实现一种贪得无厌搜索,对近年来树扩充一个子树,并连续搜寻,而且不回溯

张三和李四也意识了异常,浑身无力。

2.2 二种检索概念空间的算法

特殊到一般 (specific to general)
一般到特殊 (general to specific)
候选解排除 (candidate elimination)
  • 这多少个算法看重于变形空间的定义,在有更多实例时,可以缩小变形空间的分寸。
  • 目标:上学到的定义不仅可以覆盖所有正例,而且能去掉拥有的反例。上边讲的Obj(X,
    Y, Z)即使可以覆盖所有正例,但恐怕太泛化了。
  • 防止超泛化(overgeneralization)的办法:
    • 利用尽可能小得泛化,使之只覆盖正例
    • 用反例排除超泛化了得概念
    反例在防止超泛化中的作用

于是扯着喉咙就是一声吼:何人啊!找死啊!

3. 决策树

听着!上班族说:那里没有监控,没有录像头,今日下了那般大的雨,什么痕迹也不会留给。没人会精通这里爆发了何等业务,只有大家多少人精晓。

3.3.1 奥卡姆(Occam)剃刀(奥卡姆(Occam)’s Razor)

奥卡姆(Occam)剃刀最早是由逻辑物医学家威尔(Will)iam of 奥卡姆(Occam)于1324年提议的:

It is vain to do with more what can be done with less. . . . Entities
should not be multiplied beyond necessity.

简单的说点说,找到能够符合数据的最简便易行的解!

气愤的跑到厨房,打开灯,水龙头果然在滴水。

其次天,我气愤的准备在小胖子面前认输。此外的同伙却告诉我,小胖子病了。

没理由啊!我显著在上床从前检查过的,水龙头我已经关好了。

那有哪些?我不可能丢了城里孩子的脸,当即答应下来。

“鬼固然可怕,但更可怕的是民意。”

对,真的没有了。我也没听见孩子上下楼的脚步声,不过声音确实是泯灭了。仿佛一向没有存在过同样。

女孩躺在马路上,尚有一息尚存,不过这里离城里还有几十公里,送去诊所肯定来不及了。假若见死不救,这多少个小女孩的遗体肯定会被发觉,自己刚刚升职,前途一片光明。

小胖子从此昏迷,怎么也叫不醒,后来请了村里的法师做了佛事才好转过来。

王五的故事讲完将来,得意洋洋的说:尽管那天深夜吓了个够呛,然则我后来就着实就是鬼了。

出人意外,身后有人拉我的衣装,我反过来头,一个小女孩在本人身后,怯生生的说,我布娃娃丢了,你能帮自己找呢?

自身一把吸引,朝着水池一扔,一个白衣小女孩被自己狠狠的砸在水池,女孩小脸煞白,冲我低声嘶吼。我气不打一处来,一巴掌挥过去,打在小女孩脸上,小女孩的头立即飞了出去,像篮球一样在厨房滚来滚去,最终哭着没有了。

庙祝丑陋的脸孔抽搐了弹指间,说道:我有个故事,你们要听吗?

你你你……庙祝突然紧张到不会说话。

什么情形?我环顾四周,空无一人,也尚无猫什么的小动物。

自己一个健步冲进厨房,开灯。

充足声音很轻,不认真听几乎听不见。可是如果您听到了第一声敲门声,你就会被这些敲门声所吸引。

第二个故事·李四

你想干嘛!他心中生出阵阵寒意,这么些戴着镜子的上班族,冷静的有些万分。

我胆子大,喜欢冒险,一向就不相信什么鬼神之说。

那鬼地点,竟然还有个小庙。张三心下偷偷欣喜,走进小庙,庙里一堆火,六人围着坐在火堆旁。张三打了个关照,也坐在火堆旁。

房屋整体很好,就是卧室有点小,采光差了点,可是大概来说,我早就很中意了。

出人意料,他看见白影一闪,车子好像撞上了如何东西。

是啊!那世界上,善恶终有报,不是不报,时候未到!这人顿了顿,咬牙切齿:我现在要去拿马蓉和宋喆这对奸夫淫妇的灵魂。

一个白影一闪而过,水龙头滴着水。

本身有个小动作,思考的时候喜欢摸后脑勺。

我起来,开了灯。走出卧室,走到大门前,这时,声音忽然消失了。

万一那扇窗户是开着的,那么自己的寝室相对不容许采光这么差。想到这里,我哆哆嗦嗦拿出手机报了警。

正是日了狗了!张三一头咒骂一边赶路,早就在心底把温馨的首席营业官骂了十万八千遍,这多少个鬼天气,竟然派自己到荒山野岭考察项目。

你怎么样您!这人粗着嗓门说道:他们一度死了,张三大雨路滑摔死了,李四开车冲下悬崖死了,王五爬山掉下来摔了个稀巴烂。我追着他俩的神魄追了半天才把她们都赶来那里。

睡到迷迷糊糊,又隐约听到了滴水的响声,仔细确认了后头,打开灯,打着哈欠来到了厨房。

您开车撞死人,他补上了最终一刀,我承担处理尸体。上班族面无表情,进了城,我们就互相不认识了。

王五用树枝拨弄着火舌,说道:好俗气,手机都没电了。要不讲多少个故事解闷吧!

有人问我干什么不写婴儿,其实这是小宝宝的产业,我只是一介隔着婴儿光环围观王宝强的网友,我喷马宋多个人也就是“婊子”一类的车轱辘话,其他的本身又有如何资格去说啊?好啊,最终祝我们中元节喜欢。

自家被打击声吵得睡不着,于是坐起身,仔细辨认了一晃声响,听出来敲门声发声的地方较低,可能是哪家的熊孩子认错了门吧!

在经受了一夜的折腾之后,我毕竟醒了。天亮了,却如故心有余悸,这多少个梦太实在了,梦中的声音那么清楚,仿佛就时有暴发在我周围一样。

外祖父共在乡下,这时候农村不是很发达,晌午还时常停电。不过对于小儿来说,有玩伴就好了。

下一场拿出登山铲,对着女孩一阵狂拍。

敲门声没有了,不过这晚我或者睡得不踏实,因为自身做了噩梦。

王五大大咧咧,抢着应对:老子一巴掌把小鬼的头都打掉了,怕个屁啊!

有一段日子,我家里厨房的水龙头出了点毛病,平时在半夜滴水。

敲门声又响起来了!

自己立马手脚冰冷,只觉得寒气入骨。这个小女孩眼神和二十年前的那些小女孩一般无二,即使时间这么久已经忘记了模样,可是这种怯生生的眼力我不会忘记。

古铜色肌肤的大丈夫是王五,通过旁边放着的登山包就知晓,这厮一定是个登山爱好者。他就是在山里跟队友走散了,才到来了那边。

自己将来又去找过那一个女孩,然而再也尚无见过。

鬼故事!

这天雨下得很大,雨刷不停的挥舞,视线如故很不清晰,所以他开车开得很慢。

而自己,好像突然精晓了何等,夺门而出,在网吧待了一个夜间。

一天法事完毕,已是天黑,我转着转着就走到了当初的这栋放弃的屋宇。二十年过去了,房子越来越衰败。

其两个故事·王五

本人乐不可支的看着自己的佳作,心想,这下应该不会半夜滴水了吗!

明亮了又能怎么,虽然你是鬼,老子照样砍了你!王五操着登山铲站起来,又无力的倒塌。

当地特有的松树。一个古稀之年而且沙哑的音响响起。一张丑陋的脸突然冒出,脸上全是伤痕,半个嘴唇依旧都已经没有了,白森森的牙齿露在外侧映着熊熊点火的火舌,说不出的瘆人。

报你个大头鬼!你十年前为了救你姑娘就被大火烧死了。一块跟自家回去吧!我赶时间。

怎样时候能走出来!张三一阵火大,不顾三七二十一,径直朝着灯火走去。

特么的!我及时就醒来了,心道,还真特么见鬼了。

用尽!庙外面一声怒吼犹如平地惊雷。

外出的时候觉得去一趟坟地,所以没有带备用电池。正想跟小女孩说对不起,却听到曾外祖父在喊我回家。想回头和女孩道别,却发现女孩已经不见了踪影。

自家是何人?来人咧嘴一笑,笑得比哭还难看。大手一扔,几颗人头咕噜噜滚到庙祝脚下。

理所当然,对于儿童而言,抢了风头不是什么样好事。

奇了怪了!我小声嘀咕。没理由啊!刚刚明确听见了声音。

这时候,在自身前面,有个小胖子出了名的勇气大,是这片孩子的领导人。眼看被我抢了形势,这小胖子便约我比何人的胆量大。

一个不行高大的身形现身在庙里,这人预计有两米以上的身高,头发脏兮兮像是几年没有洗过,竟然长着一双牛角,浑身漆黑。

果然,大概十五分钟将来,水龙头滴水的声息就响了四起。

比的办法很粗略,农村人那时候死了人都葬在联名,小胖子约我在天黑了随后去坟地走上一圈,仍是可以回到的,就是不行。

莫不是自己真的忘记关了?我有些狐疑的摸了摸自己的后脑勺。

庙祝在一旁冷笑一声,哑着嗓子说道:你们真的就是鬼吗?

若要人不知,除非己莫为。庙祝眼里闪过一丝精光。

据老人们说,小胖子这天一到墓地,看见几点肉色的鬼火飞舞,当时就大喊一声晕过去了,直到他父母没见人,才在墓地找到她。

下了楼,我回头望了一眼自己的房间。数了一遍楼层,立时感觉到如坠冰窖,整个人汗毛都快竖起来了。

第六个故事·庙祝

自身走上前,女孩哭着说,我找不到自身布娃娃了,这下三姑知道了,肯定要打我的!

用作城里孩子,我立即以为自身应该像影片之中的神勇一样,帮他找到自己的布娃娃。

只可以在心底告诉要好实在没什么,洗了个脸就准备上班。

庙祝定睛一看,三颗人头,不正是张三李四王五的呢?

可是,就在那天半夜,我仍旧听到了滴水的响动。

果然,水龙头又在滴水了。

果不其然,卧室被人砌上了一个隔间,而里面,正是一具小女孩的残骸。

即时买房子的时候,我吹毛求疵的一贯压价,房东虽然有点不情愿,最后依旧允许了。

张三那才顺了顺呼吸,对着庙祝点头致意。庙祝微笑问好,半个嘴唇扯出一个弧度,看的张三背后发凉。

赶时间?

张三、李四和王五两个人面面相觑,玄而又玄的望着对方,又反过来头望着庙祝。

张三被吓得不轻,李四神速笑着安抚:这是此处的庙祝,年轻时被火烧了。

进了城,上班族带走了遗体,户外运动男挥手道别,他开着车,回到了祥和的家。

只得又关好水龙头,重新检查了好五次,才关了厨房的灯,然后爬上床睡觉。

什么年代了!王五哈哈大笑,我们不信。

明天是四月半中元节,鬼门关开,百鬼夜行!庙祝沙哑的鸣响不合时宜的响起。

这段日子,我刚买了房。

自己撒腿就跑,平素跑到有辉煌的地点才止住。

王五拿出登山铲,冷冷说道:你是怎么通晓的?

自己的屋宇在十八楼,南北朝向,卧室在南方,只有东方一个小窗户采光。然则,我今日来看的屋宇,南边显然有一扇开着的窗户。

一个下雨的夜间,他一个人开车回城里,路上,他又载了一个欢喜户外运动的丈夫和此外一个失去了最后班车的上班族。

梦里,我依旧在熟睡,但是我能听到有人在砸墙壁,“咚咚咚”不绝于耳。我眼睛睁不开,不晓得外面暴发了咋样,只可以听见响声。

一嗓子下去,万籁俱寂。整个社会风气立刻安静了!

还有鬼了!我起身,开灯。在此以前有意中人打趣,是不是你惹上了外界淘气的小鬼,回家逗你玩呢?

自己只好关了灯,又爬上床准备就寝。

本身在一群乡村孩子面前可以吹嘘自己在城池里的所见所闻,说他俩从未见过的汽车,火车和飞机。他们睁着大双目一脸向往。

夜晚,我刚躺下准备就寝,就听到有敲击的声响。

这一次也不例外,可是,当自己摸到后脑勺的时候,登时赶到背后发凉,手上进一步冰冷一片,仿佛摸到了一块冰块,即刻觉得阵阵毛骨悚然。

近了才察觉,那是山上的一处小庙。

第一个故事·张三

这一次,我仍旧关了水龙头,重新检查得了之后,我就关了灯。

本人起先帮女孩找布娃娃。不过找了半天始终没有发觉什么布娃娃,一直到手电筒的灯光变暗。我大呼不佳,电池没有电了!

你是什么人?庙祝望着来人,心里很不扎实。

起初我以为,肯定是水管年久失修了,于是屁颠儿跑到五金市场买了一堆工具,把厨房的持有水管都更新了。

砸墙的动静还陪同着一个小女孩的哭声,女孩边哭边说:放我出来!

二十年后,我姑丈逝世,在老家举办法事。

不知底是不是时来运行,一路直通,竟然离灯火越来越近。

火堆烧的很旺,还有一种若有若无的香气,张三觉得有些奇怪,问道:这是何等树,这么香?