论文目录 | |
摘要 | 第1-3
页 |
ABSTRACT | 第3-5
页 |
目录 | 第5-8
页 |
第一章 绪论 | 第8-13
页 |
· 研究背景 | 第8-9
页 |
· 研究进展 | 第9-10
页 |
· 本文所做的工作 | 第10-13
页 |
第二章 预备知识 | 第13-26
页 |
· 巩固学习 | 第13-18
页 |
· 巩固学习的基本概念 | 第13-16
页 |
· 巩固学习模型 | 第13-14
页 |
· 马尔可夫决策过程 | 第14
页 |
· 巩固学习算法 | 第14-16
页 |
· 巩固学习的发展与研究状况 | 第16-18
页 |
· 网络蜘蛛搜索策略比较研究 | 第18-25
页 |
· 专业搜索引擎网络蜘蛛模型 | 第18-19
页 |
· 网络蜘蛛搜索策略的分类 | 第19-24
页 |
· 基于立即回报价值评价的搜索策略 | 第19-22
页 |
· 基于内容评价的搜索策略 | 第19-20
页 |
· 基于链接结构评价的搜索策略 | 第20-22
页 |
· 基于未来回报价值评价的搜索策略 | 第22-24
页 |
· 网络蜘蛛搜索策略比较 | 第24-25
页 |
· 小结 | 第25-26
页 |
第三章 基于隐偏向信息学习的巩固学习算法研究 | 第26-36
页 |
· 引言 | 第26
页 |
· 基于隐偏向信息学习的巩固学习模型及算法 | 第26-35
页 |
· 问题描述 | 第26-27
页 |
· 隐偏向信息学习 | 第27-28
页 |
· 隐偏向信息 | 第27
页 |
· 代理体的行动选择机制 | 第27-28
页 |
· 基于隐偏向信息学习的Feature-SARSA(λ)算法 | 第28-31
页 |
· 局部状态特征与特征抽取函数 | 第28-29
页 |
· 策略调整函数与Feature-SARSA(λ)算法 | 第29-30
页 |
· 复杂性分析 | 第30-31
页 |
· 实验 | 第31-35
页 |
· 推箱任务(Box Pushing Task) | 第31-32
页 |
· SARSA(O)和Feature-SARSA(O)算法实验结果比较 | 第32-34
页 |
· SARSA(λ)和Feature-SARSA(λ)算法实验结果比较 | 第34-35
页 |
· 小结 | 第35-36
页 |
第四章 基于隐偏向信息学习的网络蜘蛛学习算法研究 | 第36-41
页 |
· 引言 | 第36
页 |
· 相关描述 | 第36
页 |
· 局部状态特征 | 第36-37
页 |
· 基于偏向信息学习的网络蜘蛛学习算法 | 第37-38
页 |
· 实验 | 第38-40
页 |
· 小结 | 第40-41
页 |
第五章 基于未来回报信度递减的网络蜘蛛搜索策略研究 | 第41-47
页 |
· 引言 | 第41
页 |
· 传统网络蜘蛛搜索策略比较 | 第41-42
页 |
· 基于巩固学习的“启发式”网络蜘蛛模型及搜索算法 | 第42-44
页 |
· 启发式网络蜘蛛模型 | 第42
页 |
· 信任指派与价值置信函数 | 第42-43
页 |
· 基于未来回报信度递减的启发式搜索算法 | 第43-44
页 |
· 实验 | 第44-46
页 |
· 实验背景 | 第44
页 |
· 实验结果及性能比较 | 第44-46
页 |
· 小结 | 第46-47
页 |
第六章 基于模拟退火的网络蜘蛛搜索策略研究 | 第47-51
页 |
· 引言 | 第47
页 |
· 网络蜘蛛搜索空间的特点 | 第47
页 |
· 基于模拟退火的启发式搜索算法 | 第47-49
页 |
· 实验 | 第49-50
页 |
· 实验背景 | 第49
页 |
· 实验结果及性能比较 | 第49-50
页 |
· 小结 | 第50-51
页 |
第七章 基于巩固学习的网络蜘蛛原型系统的实现 | 第51-54
页 |
· 系统设计 | 第51-52
页 |
· 关键问题的处理 | 第52
页 |
· 链接价值的计算 | 第52
页 |
· 学习策略与搜索策略 | 第52
页 |
· 主要功能的实现 | 第52-53
页 |
· 小结 | 第53-54
页 |
结论 | 第54-56
页 |
致谢 | 第56-57
页 |
参考文献 | 第57-61
页 |
附录A 发表论文情况 | 第61
页 |