[1]王朝晖 孙惠萍.图像检索中IRRL模型研究[J].计算机技术与发展,2008,(12):35-37.
 WANG Zhao-hui,SUN Hui-ping.Research of IRRL Model in Image Retrieval[J].,2008,(12):35-37.
点击复制

图像检索中IRRL模型研究()
分享到:

《计算机技术与发展》[ISSN:1006-6977/CN:61-1281/TN]

卷:
期数:
2008年12期
页码:
35-37
栏目:
智能、算法、系统工程
出版日期:
1900-01-01

文章信息/Info

Title:
Research of IRRL Model in Image Retrieval
文章编号:
1673-629X(2008)12-0035-03
作者:
王朝晖 孙惠萍
苏州大学计算机科学与技术学院
Author(s):
WANG Zhao-hui SUN Hui-ping
School of Computer Science & Technology, Soochow University
关键词:
强化学习Q-学习相关反馈图像检索IRRL模型
Keywords:
reinforcement learning Q_learning relevance feedback image retrieval IRRL model
分类号:
TP391.3
文献标志码:
A
摘要:
相关反馈实现了人机交互,是图像检索中的不可缺少的部分,一般图像检索中都使用一种反馈算法。IRRL模型将机器学习中的强化学习原理应用到图像检索的相关反馈中来。它将现有的查询点优化、特征加权、贝叶斯分类器等算法作为系统学习的动作,通过不同的状态选择不同的动作,最终为不同类的图像寻找到合适的反馈算法策略,最后根据策略进行具体的图像检索。文中对IRRL模型具体算法进行了研究,并在此基础上提出了一些改进意见
Abstract:
Relevance feedback realized a good man-machine interaction in image retrieval, therefore it became an indispensable part of image retrieval. Generally, there is only one feedback algorithm in an image retrieval system. IRRL model integrtate query vector m

相似文献/References:

[1]冯林 李琛 孙焘.Robocup半场防守中的一种强化学习算法[J].计算机技术与发展,2008,(01):59.
 FENG Lin,LI Chen,SUN Tao.A Reinforcement Learning Method for Robocup Soccer Half Field Defense[J].,2008,(12):59.
[2]汤萍萍 王红兵.基于强化学习的Web服务组合[J].计算机技术与发展,2008,(03):142.
 TANG Ping-ping,WANG Hong-bing.Web Service Composition Based on Reinforcement -Learning[J].,2008,(12):142.
[3]林联明 王浩 王一雄.基于神经网络的Sarsa强化学习算法[J].计算机技术与发展,2006,(01):30.
 LIN Lian-ming,WANG Hao,WANG Yi-xiong.Sarsa Reinforcement Learning Algorithm Based on Neural Networks[J].,2006,(12):30.
[4]农汉琦,孙蕴琪,黄 洁,等.基于机器学习的认知无线网络优化策略[J].计算机技术与发展,2020,30(05):125.[doi:10. 3969 / j. issn. 1673-629X. 2020. 05. 024]
 NONG Han-qi,SUN Yun-qi,HUANG Jie,et al.Optimization Strategy of Cognitive Radio Network Based on Machine Learning[J].,2020,30(12):125.[doi:10. 3969 / j. issn. 1673-629X. 2020. 05. 024]
[5]雷 莹,许道云.一种合作 Markov 决策系统[J].计算机技术与发展,2020,30(12):8.[doi:10. 3969 / j. issn. 1673-629X. 2020. 12. 002]
 LEI Ying,XU Dao-yun.A Cooperation Markov Decision Process System[J].,2020,30(12):8.[doi:10. 3969 / j. issn. 1673-629X. 2020. 12. 002]
[6]彭云建,梁 进.基于探索-利用权衡优化的 Q 学习路径规划[J].计算机技术与发展,2022,32(04):1.[doi:10. 3969 / j. issn. 1673-629X. 2022. 04. 001]
 PENG Yun-jian,LIANG Jin.Q-learning Path Planning Based on Exploration / Exploitation Tradeoff Optimization[J].,2022,32(12):1.[doi:10. 3969 / j. issn. 1673-629X. 2022. 04. 001]
[7]乔 通,周 洲,程 鑫,等.基于 Q-学习的底盘测功机自适应 PID 控制模型[J].计算机技术与发展,2022,32(05):117.[doi:10. 3969 / j. issn. 1673-629X. 2022. 05. 020]
 QIAO Tong,ZHOU Zhou,CHENG Xin,et al.Adaptive PID Control Model of Chassis Dynamometer Based on Q-Learning[J].,2022,32(12):117.[doi:10. 3969 / j. issn. 1673-629X. 2022. 05. 020]
[8]魏竞毅,赖 俊,陈希亮.基于互信息的智能博弈对抗分层强化学习研究[J].计算机技术与发展,2022,32(09):142.[doi:10. 3969 / j. issn. 1673-629X. 2022. 09. 022]
 WEI Jing-yi,LAI Jun,CHEN Xi-liang.Research on Hierarchical Reinforcement Learning of Intelligent Game Confrontation Based on Mutual Information[J].,2022,32(12):142.[doi:10. 3969 / j. issn. 1673-629X. 2022. 09. 022]
[9]吴 鹏,魏上清,董嘉鹏,等.基于 SARSA 强化学习的审判人力资源调度方法[J].计算机技术与发展,2022,32(09):82.[doi:10. 3969 / j. issn. 1673-629X. 2022. 09. 013]
 WU Peng,WEI Shang-qing,DONG Jia-peng,et al.Trial Human Resources Scheduling Method Based on SARSA Reinforcement Learning[J].,2022,32(12):82.[doi:10. 3969 / j. issn. 1673-629X. 2022. 09. 013]
[10]林泽阳,赖 俊,陈希亮.基于课程学习的深度强化学习研究综述[J].计算机技术与发展,2022,32(11):16.[doi:10. 3969 / j. issn. 1673-629X. 2022. 11. 003]
 LIN Ze-yang,LAI Jun,CHEN Xi-liang.An Overview of Deep Reinforcement Learning Based on Curriculum Learning[J].,2022,32(12):16.[doi:10. 3969 / j. issn. 1673-629X. 2022. 11. 003]

备注/Memo

备注/Memo:
国家自然科学基金(60673092);教育部科研重点项目(205059);江苏省高技术研究计划项目(BG2005019)王朝晖(1967-),女,硕士,副教授,研究方向为多媒体技术
更新日期/Last Update: 1900-01-01