人工智能
2024-02-21 10:45:05 0 举报
AI智能生成
人工智能 NLP
作者其他创作
大纲/内容
5.搜索求解
盲目图搜索策略
回溯策略
概念是试探性的往复循环试探搜寻路径
PS表 当前搜索路径的状态 找到目别的可作为结果
NPS 新的待搜索状态
NNS 不可解状态集
宽度优先
结构
open表nps
closed表 ps+nss
步骤
先进先出的栈问题
同级优先 全展开后再深入下一层
深度优先
概念
深度限制
堆
步骤
单侧子状态深入优先,一条路径搜索截至再下一条
盲目搜索:在不具有对特定问题的任何有关信息的条件下,
按固定的步骤(依次或随机调用操作算子)进行的搜索
按固定的步骤(依次或随机调用操作算子)进行的搜索
启发式图搜索策略
启发式策略
利用与问题有关的启发信息进行搜索
启发信息
在具体求解中,能够利用与该问题有关的信息来简化搜索过程
估价函数
估计待搜索结点的“有希望”程度,并依次给它们排定次序(在open表中)
f(n)=g(n)+h(n) 启发函数定义
f(n) 从初始结点经过结点到达目的结点的路径的最小代价估计值
g(n) 实际的路径选择代价 当前节点到初始节点的距离
h(n) 从当前节点到目标节点的最佳路径的估计代价
g(n)比重越大越倾向于宽度优先,h(n)比重越大启发性能越强
A搜索算法
特点:根据启发式排序取最小,每次择优选取取出启发估价函数值最小的状态加以扩展
如何寻找并设计一个与问题有关的 h(n)及构出f(n)=g(n)+h(n),
然后以 f(n)的大小来排列待扩展状态的次序,每次选择 f(n)值最小者进行扩展。
如何寻找并设计一个与问题有关的 h(n)及构出f(n)=g(n)+h(n),
然后以 f(n)的大小来排列待扩展状态的次序,每次选择 f(n)值最小者进行扩展。
A*搜索算法
特性
可采纳性:最短路径存在能找到
单调性:局部可采纳
信息性:h1(n)<=h2(n)
概念
若该问题有解,A*必可找到有最优解
启发式搜索:考虑特定问题领域可应用的知识,动态地确定调用操作算子的步骤,
优先选择较适合的操作算子,尽量减少不必要的搜索,以求尽快地到达结束状态。
优先选择较适合的操作算子,尽量减少不必要的搜索,以求尽快地到达结束状态。
启发式搜素
利用启发信息的搜索过程
3.确定性推理
自然演绎推理
从一组已知为真的事实出发,运用经典逻辑的推理规则推出结论的过程
海伦伯伦定理
子句集不可满足的充要条件是存在一个有限的不可满足的基子句集
鲁滨逊定理
存在空子句
归结反演
证明
应用归结原理证明定理的过程称为归结反演。
用归结反演证明的步骤是:
(1)将已知前提表示为谓词公式F。
(2)将待证明的结论表示为谓词公式Q,并否定得到﹁ Q 。
(3)把谓词公式集{F, Q} 化为子句集S。
(4)应用归结原理对子句集S中的子句进行归结,并把每次
归结得到的归结式都并入到S中。如此反复进行,若出
现了空子句,则停止归结,此时就证明了Q为真。(鲁滨逊)
用归结反演证明的步骤是:
(1)将已知前提表示为谓词公式F。
(2)将待证明的结论表示为谓词公式Q,并否定得到﹁ Q 。
(3)把谓词公式集{F, Q} 化为子句集S。
(4)应用归结原理对子句集S中的子句进行归结,并把每次
归结得到的归结式都并入到S中。如此反复进行,若出
现了空子句,则停止归结,此时就证明了Q为真。(鲁滨逊)
p83 3.15
求解
应用归结原理求解问题的步骤:
(1)已知前提 F 用谓词公式表示,并化为子句集 S ;
(2)把待求解的问题 Q 用谓词公式表示,并否定 Q,再与 ANSWER 构成析取式(﹁ Q ∨ ANSWER )
(3)把(﹁ Q∨ ANSWER) 化为子句集,并入到子句集 S中,得到子句集 ;
(4)对 应用归结原理进行归结;
(5)若得到归结式 ANSWER ,则答案就在 ANSWER 中。
(1)已知前提 F 用谓词公式表示,并化为子句集 S ;
(2)把待求解的问题 Q 用谓词公式表示,并否定 Q,再与 ANSWER 构成析取式(﹁ Q ∨ ANSWER )
(3)把(﹁ Q∨ ANSWER) 化为子句集,并入到子句集 S中,得到子句集 ;
(4)对 应用归结原理进行归结;
(5)若得到归结式 ANSWER ,则答案就在 ANSWER 中。
P87 例3.17
4.不确定性推理
概率方法
贝叶斯公式 逆概率方法
P96 贝叶斯公式
可信度方法
C-F模型
不确定性的多个算法组合
p111 4.6 利用公式的概率换算
模糊推理
模糊集合
论域 元素 集合
隶属度 元素属于集合的强度(0 -1)
隶属函数
隶属函数
模糊集合表示
集合运算 P125
隶属函数
常 正态分布 三角分布 梯形分布
求法 P123
模糊关系
模糊关系用叉积 代数积 常用最小算子
求法 p127 矩阵乘法 列乘行
合成
最大 最小
最大 代数积
p 129
模糊推理过程
模糊知识表示
对 IF A THEN B 类型的模糊规则的推理
对 IF x is A and … and y is B THEN z is C 类型的模糊规则的推理
p132
模糊决策
最大隶属度法
加权平均判决法
中位数法
举例 分析P135 4.15
去模糊规则(模糊决策)
最大隶属度法
取最大的隶属度 若有相同取平均
加权平均判决法
取加权平均数
中位数法
使两边相同隶属度相同的 若为中间可以取插值法 或直接取舍 不用精确
有效性 简便性 鲁棒性
2.知识表示
知识
一阶谓词表示
命题
谓词
相当于一种定义、描述
谓词名 P:刻画个体的性质、状态或个体间的关系。
几元:有几个个体,性质或状态就是几元
形式是P(x x x ...
连词
否 非
析取 或
合取 与
蕴含
等价
量词
全称量词 任意
存在量词 存在
蕴含式
如果那么 对于现象描述不包含操作等
生产式
产生式通常用于表示事实、规则以及它们的不确定性度量,
适合于表示事实性知识和规则性知识。
适合于表示事实性知识和规则性知识。
表示
确定事实性知识
三元组 (对象 属性 值)
关系 对象 对象
不确定实施性知识
四元组 (对象 属性 值 置信度)
关系 对象 对象 置信度
if then 的取规则推论 课本例题 生产式系统
生产式系统结构
控制 规则库 推理机 综合数据库
冲突消解?
优点
自然性 模块性 有效性 清晰性
缺点
效率不高 不能表达结构性知识
适用
(1)领域知识间关系不密切,不存在结构关系。
(2)经验性及不确定性的知识,且相关领域中对这些知识没有严格、统一的理论。
(3)领域问题的求解过程可被表示为一系列相对独立的操作,且每个操作可被表示为一条或多条产生式规则。
(2)经验性及不确定性的知识,且相关领域中对这些知识没有严格、统一的理论。
(3)领域问题的求解过程可被表示为一系列相对独立的操作,且每个操作可被表示为一条或多条产生式规则。
例 机器人搬椅子 a b c
框架表示法
框架表示法:一种结构化的知识表示方法,已在多种系统中得到应用
结构
框架 事物对象
槽 有槽值 属性
侧面 侧面值 属性的某方面
举例
框架名:〈教师〉
姓名:单位(姓、名)
年龄:单位(岁)
性别:范围(男、女)
缺省:男
职称:范围(教授,副教授,讲师,助教)
缺省:讲师
部门:单位(系,教研室)
住址:〈住址框架〉
工资:〈工资框架〉
开始工作时间:单位(年、月)
截止时间:单位(年、月)
缺省:现在
姓名:单位(姓、名)
年龄:单位(岁)
性别:范围(男、女)
缺省:男
职称:范围(教授,副教授,讲师,助教)
缺省:讲师
部门:单位(系,教研室)
住址:〈住址框架〉
工资:〈工资框架〉
开始工作时间:单位(年、月)
截止时间:单位(年、月)
缺省:现在
地震框架
特点
(1) 结构性
便于表达结构性知识,能够将知识的内部结构关系及知识间的联系表示出来。
(2)继承性
框架网络中,下层框架可以继承上层框架的槽值,也可以进行补充和修改。
(3)自然性
框架表示法与人在观察事物时的思维活动是一致的。
便于表达结构性知识,能够将知识的内部结构关系及知识间的联系表示出来。
(2)继承性
框架网络中,下层框架可以继承上层框架的槽值,也可以进行补充和修改。
(3)自然性
框架表示法与人在观察事物时的思维活动是一致的。
6.进化算法
遗传算法
概念
名词概念
基本思想
在求解问题时从多个解开始,然后通过一定的法则进行逐步迭代以产生新的解
编码
群体设定
适应度函数
选择
交叉
变异
实现步骤 构建过程
基本流程图
差分遗传算法
概念
是一种基于实数编码的具有保优思想的贪婪遗传算法
7.群智能算法
粒子群算法
蚁群算法
8.人工神经网络
神经网络
概念
激励函数
结构 输入 输出
分类
前馈型
反馈型
流程
从输入产生输出的实现
Hopfiled
离散型Hopfield神经网络
连续性Hopfield神经网络
卷积神经网络
概念
卷积层(特征提取层) c
卷积核
卷积运算
特征提取
特征映射层(下采样层) S层
相似特征合并
关键技术
局部连接
只对局部进行感知,然后在更高层将局部的信息综合起来得到全局信息
权值共享
将每个神经元的参数设置成相同
多卷积核
个卷积核提取一种特征 多个卷积核提取不同特征
池化
计算图像一个区域上的某个特定特征的平均值(或最大值),聚合操作
降低维度 不容易过拟合
实现过程
BP神经网络
概念
网络结构 输入 隐层 输出
输入叠加算法
bp学习目的是求各层各单元之间的权重系数 即求连接权值
算法思想
特点
BP网络:多层前向网络(输入层、隐层、输出层)。
连接权值:通过Delta学习算法进行修正。
神经元传输函数:S形函数。
学习算法:正向传播、反向传播。
层与层的连接是单向的,信息的传播是双向的
连接权值:通过Delta学习算法进行修正。
神经元传输函数:S形函数。
学习算法:正向传播、反向传播。
层与层的连接是单向的,信息的传播是双向的
优点
很好的逼近特性。
具有较强的泛化能力。
具有较好的容错性
具有较强的泛化能力。
具有较好的容错性
缺点
收敛速度慢。
局部极值。
难以确定隐层和隐层结点的数目
局部极值。
难以确定隐层和隐层结点的数目
算法设计
1、隐层数及隐层神经元数确定
2、初始权值的设置:一般以一个均值为0的随机分布设置网络的初始权值
3、训练数据预处理
4、后处理过程
算法流程
例子: 数字字符的识别
1.绪论
基本概念
什么是人工智能
用人工的方法在机器(计算机)上实现的智能;
或者说是人们使机器具有类似于人的智能
或者说是人们使机器具有类似于人的智能
图灵测试
智能特征
感知能力
记忆与思维能力
逻辑思维
形象思维
顿悟思维
学习能力
思维能力
基本内容
知识表示
机器感知
机器思维
机器学习
机器行为
研究领域
模式识别
机器视觉
自然语言理解
更多。。。。
机器学习
特点
机器学习是通过编程让计算机从数据中进行学习的科学(和艺术)。
常见算法:监督学习 非监督学习 半监督 强化学习
深度学习
深度学习包含构建能够模仿人类大脑行为的神经网络。
这些多层次的神经网络像人类大脑一样,可以收集信息,并产生相应的行为
这些多层次的神经网络像人类大脑一样,可以收集信息,并产生相应的行为
深度学习是机器学习领域中对模式(声音、图像等等)进行建模的一种方法,
它也是一种基于统计的概率模型。在对各种模式进行建模之后,便可以对各种模式进行识别了
它也是一种基于统计的概率模型。在对各种模式进行建模之后,便可以对各种模式进行识别了
深度学习提出了一种让计算机自动学习出模式特征的方法,
并将特征学习融入到了建立模型的过程中,从而减少了人为设计特征造成的不完备性
并将特征学习融入到了建立模型的过程中,从而减少了人为设计特征造成的不完备性
深度学习虽然能够自动的学习模式的特征,并可以达到很好的识别精度,但这种算法工作的前提是,使用者能够提供“相当大”量级的数据。
也就是说在只能提供有限数据量的应用场景下,深度学习算法便不能够对数据的规律进行无偏差的估计了,因此在识别效果上可能不如一些已有的简单算法
所以导致实现难度较大,需要较强的技术及经济支持
也就是说在只能提供有限数据量的应用场景下,深度学习算法便不能够对数据的规律进行无偏差的估计了,因此在识别效果上可能不如一些已有的简单算法
所以导致实现难度较大,需要较强的技术及经济支持
专家系统
0 条评论
下一页