大白话聊透人工智能

巴蜀魔幻侠

首页 >> 大白话聊透人工智能 >> 大白话聊透人工智能最新章节(目录)
大家在看快穿系统:宝贝,你认错人了 掠天记 凡人:张铁,我有一个签到系统 重生追美记 大清第一纨绔. 深渊之狱 港岛大亨 风起北方 穿越民国,我随身一处惊天宝藏 盗墓:神级血脉,雪莉杨倒贴! 
大白话聊透人工智能 巴蜀魔幻侠 - 大白话聊透人工智能全文阅读 - 大白话聊透人工智能txt下载 - 大白话聊透人工智能最新章节 - 好看的其他类型小说

深度学习:从“机器学东西”到“AI能干活”的底层逻辑

上一章书 页下一章阅读记录

咱们先从一个生活场景聊起:你小时候学认水果,妈妈拿出苹果、香蕉、橘子放在桌上,告诉你“红的、圆的、咬着脆甜的是苹果”“黄的、弯的、剥了皮吃的是香蕉”。你看了几次、摸了几次、吃了几次后,下次再见到超市里的苹果,不用妈妈说,自己就能认出来——这就是“学习”。

那AI的“深度学习”,其实跟人学认水果的逻辑差不多,只不过它学的东西更复杂,用的“脑子”不是咱们的大脑,而是电脑里的“数学模型”。今天咱们就用最通俗的话,把深度学习的来龙去脉、底层原理、怎么干活的、能干啥、有啥毛病都掰扯清楚,保证不管你是学生、上班族还是退休在家的朋友,都能听得明明白白。

一、先搞懂“AI、机器学习、深度学习”的关系:不是三个独立的东西,是“爷爷、爸爸、儿子”

很多人一听到AI、机器学习、深度学习就晕,总觉得是三个完全不一样的技术,其实它们是“包含关系”,就像“动物→哺乳动物→猫”一样,范围一个比一个小,精度一个比一个高。

咱们先画个简单的“包含圈”:最外面的大圈是AI(人工智能),意思就是“让机器像人一样能干活”,比如机器人扫地、手机语音助手说话、导航软件指路,都算AI的范畴。但AI是个“大目标”,怎么实现这个目标呢?得让机器先“学会东西”,这就有了中间的圈——机器学习。

机器学习就是“让机器自己从数据里找规律,不用人一步一步教”。比如你想让机器认猫,要是不用机器学习,就得让人写无数行代码:“如果这个动物有四条腿、有尾巴、毛是黄的、耳朵尖……那就是猫”,但世界上的猫有胖有瘦、有黑有白,代码根本写不完。而机器学习的思路是:给机器喂10万张猫的图片、10万张不是猫的图片,让它自己看“猫都有啥共同点”,下次再给一张新图片,它就能判断“这是不是猫”。

但机器学习也有缺点:要是数据太复杂,比如让它“从视频里判断人是不是在哭”,视频里有表情、声音、动作,机器学习就有点“力不从心”了——这时候就需要最里面的圈,也就是深度学习。

深度学习是机器学习的“升级版”,它能处理更复杂的数据,比如图片、声音、视频、文字,而且学东西的效率更高、准确率也更高。咱们现在用的chatGpt、AI画图(比如midjourney)、手机人脸识别、自动驾驶的“眼睛”,背后靠的全是深度学习。

简单总结一下:AI是目标,机器学习是实现目标的“方法群”,深度学习是机器学习里最厉害的“核心方法”。就像你想“做出好吃的(AI)”,“用锅做饭(机器学习)”是方法,而“用高压锅炖肉(深度学习)”是其中效率最高、味道最好的方法。

二、深度学习的“脑子”:不是真的“思考”,是“多层数学公式堆出来的网络”

咱们人靠大脑思考,大脑里有1000多亿个神经元,神经元之间互相连接,传递信号——深度学习的“脑子”,就是模仿这个结构做出来的,叫“神经网络”。但注意:这不是真的“神经”,就是一堆数学公式的集合,咱们叫它“人工神经网络”。

1. 最基础的“神经元”:就像一个“算账的小盒子”

先从最小的单位“神经元”说起。你可以把一个神经元想象成一个“小会计”,它干的活就三步:

第一步:“收钱”。它会从左边收到很多“钱”(这些“钱”其实是上一步的输入数据,比如图片的像素值、声音的频率),而且每笔“钱”都有一个“权重”——就像“这笔钱重要不重要”,权重高的钱,影响更大。比如认苹果时,“红色”的权重比“上面有没有斑点”高。

第二步:“算账”。小会计把每笔钱乘以对应的权重,加起来,再加上一个“偏置”(可以理解成“基础分”,比如不管有没有其他特征,先给个基础分,避免算出来的结果太极端)。比如“红色(5分)x权重0.8 + 圆形(4分)x权重0.7 + 偏置0.5 = 5x0.8+4x0.7+0.5=4+2.8+0.5=7.3”。

第三步:“输出结果”。算出来的7.3不能直接用,得经过一个“激活函数”处理——这个函数的作用是“让结果更像人判断的逻辑”。比如激活函数可以设定“如果结果大于5,就输出‘像苹果’;小于5,就输出‘不像苹果’”。

你看,一个神经元就是“输入→加权求和→激活→输出”的过程,本质上就是一个简单的数学计算。

2. 深度学习的“深度”:就是把神经元分成“多层”,一层接一层算

那“深度”体现在哪?就是把很多神经元分成好几层,比如“输入层→隐藏层→输出层”,隐藏层还能有好多层,层数越多,“深度”越深。

咱们拿“认苹果”举个具体的例子,看看多层网络怎么干活:

- 输入层:负责“接收原始数据”。比如一张苹果图片,输入层的每个神经元就对应图片的一个像素点(比如一张100x100的图片,输入层就有个神经元,每个神经元的值就是这个像素的颜色深浅,比如0-255的数字)。

- 隐藏层1(特征提取层):第一个隐藏层的神经元,会“看”输入层的像素点,找最基础的特征。比如有的神经元专门找“边缘”(苹果的圆形轮廓),有的找“颜色块”(红色的区域),有的找“纹理”(苹果皮的光滑度)。这一层干的活,就像你刚看苹果时,先注意到“这东西是圆的、红的”。

- 隐藏层2(特征组合层):第二个隐藏层,会把第一层找出来的“边缘、颜色块、纹理”组合起来,找更复杂的特征。比如把“红色块+圆形边缘”组合成“红色的圆形”,把“光滑纹理+红色圆形”组合成“看起来像水果的红色圆形”。这一步就像你进一步想“圆的、红的、滑的,可能是水果”。

- 隐藏层3(特征判断层):第三个隐藏层,会把第二层的特征再组合,靠近“苹果”的具体特征。比如把“红色圆形+有果蒂的痕迹+咬一口有果肉纹理”组合起来,变成“符合苹果特征的组合”。这一步就像你想“这个红圆形还有果蒂,咬着有脆肉,很像苹果”。

- 输出层:最后一层,负责“给出最终答案”。比如输出层有两个神经元,一个对应“是苹果”,一个对应“不是苹果”。经过前面几层的计算,输出层会算出“是苹果”的概率是95%,“不是苹果”的概率是5%,那机器就会判断“这是苹果”。

你发现没?深度学习的过程,就是“从简单特征到复杂特征,一层一层提炼”的过程——就像人认东西,先看表面的颜色、形状,再看细节的纹理、部件,最后综合判断“这是什么”。

而且现在的深度学习模型,隐藏层可能有几十层、几百层,比如chatGpt的早期版本有12层,后来的版本有1750亿个参数(参数就是前面说的“权重”和“偏置”)——这么多层和参数,就是为了让机器能“看”到更细微、更复杂的特征,比如从“一张人脸图片”里,不仅能认出“这是谁”,还能判断“这个人现在开心还是难过”。

三、深度学习怎么“学”东西?不是“死记硬背”,是“边练边改,越改越准”

很多人以为AI是“把所有数据都背下来”,其实不是——要是背数据,遇到没见过的新数据,机器就傻了。深度学习的“学习”,本质是“通过大量练习,调整参数(权重和偏置),让判断越来越准”,就像你做题,错了就改,下次不错,慢慢成绩就提高了。

咱们用“教机器认猫”的例子,一步步看它怎么“学习”:

1. 第一步:准备“教材”——数据和标签

想让机器学认猫,首先得给它“教材”:数据就是10万张图片(里面有猫的图片,也有狗、兔子、汽车的图片);标签就是给每张图片贴个“名字”,比如“这张是猫”“这张是狗”“这张不是动物”。

这一步很重要,就像你学数学,得有“题目(数据)”和“答案(标签)”,不然你不知道自己做对做错。而且“教材”质量越高,机器学得越好——要是图片模糊、标签贴错(把狗标成猫),机器学出来就会“认错”。

2. 第二步:“第一次做题”——前向传播,算出初步答案

一开始,机器的参数(权重和偏置)都是“随机的”,就像你刚学数学,不知道公式怎么用,只能瞎蒙。

机器会把一张猫的图片放进神经网络,经过输入层、隐藏层、输出层的计算(这个过程叫“前向传播”),得出一个初步答案。比如它算出来“这张图片是猫的概率是30%,是狗的概率是60%,是汽车的概率是10%”——很明显,错了,因为这张明明是猫。

3. 第三步:“批改作业”——计算误差,看错了多少

接下来,机器要知道“自己错了多少”,这就需要“损失函数”(可以理解成“评分老师”)。损失函数会把机器的“初步答案”和“正确标签”对比,算出“误差”。

比如正确标签是“猫的概率100%,狗0%,汽车0%”,机器的答案是“猫30%,狗60%”,那误差就很大——损失函数会用数学方法算出这个误差的具体数值,比如误差值是0.8(数值越大,错得越离谱)。

4. 第四步:“改错题”——反向传播,调整参数

知道错了,就得改——这一步是深度学习的核心,叫“反向传播”。简单说,就是“从输出层往回推,看哪个参数错了,怎么改能让误差变小”。

比如机器算错“猫”的概率,可能是因为“猫的耳朵尖”这个特征的权重设低了(比如只设了0.3,其实应该设0.8),或者“狗的尾巴长”这个特征的权重设高了(比如设了0.7,其实应该设0.2)。反向传播会像“破案”一样,找到这些有问题的参数,然后根据误差大小,一点点调整它们的值——比如把“耳朵尖”的权重从0.3调到0.4,把“尾巴长”的权重从0.7调到0.6。

这一步就像你做题错了,老师告诉你“这道题是公式用错了,应该把a换成b”,你下次做题就会调整公式里的参数,避免再错。

5. 第五步:“反复练习”——迭代,直到误差足够小

一张图片改完参数还不够,机器会把10万张图片一张一张地“做一遍题、改一遍错”,这叫“一轮训练”。然后再从头开始,做第二轮、第三轮……直到损失函数算出的误差“足够小”,比如误差值小于0.01——这时候机器认猫的准确率可能达到98%,就算“学会了”。

你看,整个学习过程就是“前向传播算答案→损失函数算误差→反向传播调参数→反复迭代”,跟人学东西的逻辑完全一样:先尝试,再纠错,再调整,最后熟练。

这里有个小细节:机器“学习”的时候,不是把所有数据一次性用完,而是分成“批次”(比如一次用100张图片),每批学完就调一次参数,这样效率更高——就像你学英语,不是一天背完1000个单词,而是每天背100个,分10天背,效果更好。

四、深度学习能干嘛?不是“只会聊天画图”,早已渗透到你生活的每个角落

很多人对深度学习的印象还停留在“chatGpt能聊天”“AI能画图”,其实它早就悄悄走进了你的生活,从早上起床到晚上睡觉,你可能已经跟它打了十几次交道。

咱们按“一天的生活”来盘点一下深度学习的应用:

1. 早上起床:被深度学习“叫醒”

- 手机闹钟的“智能跳过”:有的手机闹钟有“智能跳过节假日”功能,背后是深度学习分析你的日历数据,判断“今天要不要响铃”。

- 人脸识别解锁手机:你拿起手机,屏幕对着脸,瞬间解锁——这是深度学习在“实时识别你的面部特征”,比如眼睛的距离、鼻子的形状、下巴的轮廓,确认“是机主本人”才解锁。

- 智能音箱的“语音唤醒”:你说“小爱同学”“小度小度”,音箱能立刻回应,是因为深度学习一直在“听”特定的唤醒词,过滤掉其他声音(比如电视声、说话声)。

2. 上班路上:深度学习帮你“避坑”

- 导航软件的“实时路况”:你打开高德或百度地图,它能告诉你“前方3公里堵车,预计延误20分钟,建议走备选路线”——这是深度学习分析 millions(百万)级别的车辆定位数据,判断路况,预测通行时间。

- 网约车的“智能派单”:你下单后,平台能快速匹配附近的司机,是因为深度学习计算“你和司机的距离、司机的接单习惯、路线拥堵情况”,找到最优的匹配方式。

- 自动驾驶的“眼睛”:现在很多汽车有“辅助驾驶”功能,比如自动跟车、车道保持、识别红绿灯——汽车的摄像头、雷达就是“眼睛”,深度学习则是“大脑”,实时识别“前面是车还是人”“红绿灯是红还是绿”“有没有压线”。

3. 上班期间:深度学习帮你“省时间”

- 邮件的“垃圾邮件过滤”:你打开邮箱,垃圾邮件自动进回收站,是因为深度学习分析邮件的标题、内容、发件人,判断“这是不是垃圾邮件”(比如含“中奖”“贷款”关键词的邮件,大概率被过滤)。

- 文档的“智能翻译”:你用微信或谷歌翻译,把英文文档翻译成中文,准确率越来越高——这是深度学习分析大量的双语对照数据,学会“英文单词对应中文意思,英文句子对应中文语法”。

- AI办公工具的“自动生成”:比如你用“讯飞星火”“文心一言”,输入“写一份产品推广方案的框架”,AI能立刻生成——这是深度学习学习了 millions 份办公文档,知道“推广方案该有目标、渠道、预算、时间节点”。

4. 中午吃饭:深度学习帮你“选好吃的”

- 外卖软件的“推荐菜品”:你打开美团、饿了么,首页推荐的都是你爱吃的(比如你常点川菜,就推火锅、烤鱼)——这是深度学习分析你的点餐记录、浏览记录,判断“你的口味偏好”,精准推荐。

- 餐厅的“智能点餐系统”:有的餐厅用AI点餐,你说“我想吃辣的、带肉的”,系统会推荐“水煮鱼、辣子鸡”——这是深度学习理解你的语音需求,匹配菜单数据。

5. 晚上回家:深度学习帮你“放松”

- 视频软件的“推荐剧集”:你打开抖音、快手、 Netflix,刷到的都是你喜欢的内容(比如你爱刷宠物视频,就推猫咪、狗狗的短视频)——这是深度学习分析你的观看时长、点赞、评论,算出“你对哪种内容感兴趣”。

- AI修图工具的“美化照片”:你用醒图、美图秀秀,一键“磨皮、瘦脸、调滤镜”,效果很自然——这是深度学习学习了大量的“原图和修图后图片”,知道“哪里该磨皮、哪里该瘦脸,才不显得假”。

- 智能家居的“智能控制”:你说“打开客厅灯、把空调调到26度”,智能家居能执行——这是深度学习识别你的语音指令,对应到具体的设备控制。

除了这些日常场景,深度学习还在“帮大忙”:比如医疗领域,它能分析ct影像,比医生更早发现肺癌的早期迹象;比如气象领域,它能分析卫星数据,更准确地预测台风、暴雨;比如农业领域,它能通过无人机航拍,判断庄稼的长势,哪里需要浇水、哪里有病虫害。

可以说,现在的深度学习,已经从“实验室里的技术”变成了“生活里的工具”,你可能没意识到,但它一直在帮你解决问题、节省时间。

五、深度学习不是“万能的”:它有三个“致命缺点”,至今没完全解决

虽然深度学习很厉害,但它不是“无所不能”,就像人有缺点一样,它也有三个绕不开的“硬伤”,这些问题也是现在AI领域的科学家们正在努力解决的。

1. 缺点一:“没数据就活不了”——数据是它的“粮食”,没粮食就饿肚子

深度学习最依赖的就是“数据”,没有足够多、足够好的数据,它就“学不会东西”。比如你想让机器学“识别一种 rare(稀有的)疾病的ct影像”,但这种疾病的患者很少,全世界只有100例,能拿到的ct影像只有200张——这么少的数据,机器根本学不到规律,判断准确率可能还不如普通医生。

而且它需要的“数据量”往往大得惊人:比如训练chatGpt,用了几十tb的数据(1tb等于1000Gb,相当于几十万部电影的容量);训练一个自动驾驶模型,需要模拟几千万公里的路况数据。

更麻烦的是,有些领域的“数据很难拿”:比如航天领域,想让机器学“识别卫星拍摄的太空垃圾”,但太空垃圾的真实数据很少,只能靠模拟生成;比如隐私领域,医疗数据、金融数据涉及个人隐私,不能随便用,这也限制了深度学习的应用。

这个缺点就像“一个很会做饭的厨师,但必须用特定的食材,没有食材,再厉害的厨艺也没用”。

2. 缺点二:“不知道自己为什么对、为什么错”——它是“凭感觉判断”,没有“逻辑”

咱们人判断一件事,会说“因为A所以b”,比如“我觉得这是苹果,因为它是红的、圆的、咬着脆甜”——但深度学习不会,它的判断是“黑箱”,你不知道它是“看了哪个特征”才做出的判断,也不知道它为什么会错。

比如有个笑话:科学家想让机器学“识别坦克”,给它喂了“坦克在沙漠里的图片”和“没有坦克的沙漠图片”,机器最后学会的不是“识别坦克”,而是“识别沙漠”——只要图片里有沙漠,它就判断“有坦克”,因为它误把“沙漠”当成了“坦克的特征”。但你问机器“你为什么觉得这张图片有坦克”,它答不上来,因为它不知道自己学错了特征。

再比如医疗领域,机器判断“这个患者有肺癌”,但医生不知道它是“看了ct影像里的哪个细节”才得出的结论——这就导致在一些需要“逻辑解释”的领域(比如医疗、法律),深度学习的应用会受到限制,因为人不敢“完全相信一个说不出理由的机器”。

这个缺点就像“一个学生考试考了100分,但问他这道题为什么这么做,他说‘我就是感觉这么做对’”——你虽然佩服他的成绩,但不敢让他当老师,因为他教不会别人。

3. 缺点三:“容易被‘骗’”——遇到“奇怪的数据”,就会犯低级错误

咱们人认东西,就算遇到“奇怪的情况”,也能靠常识判断——比如你看到一个“长着猫脸、但有四条狗腿的动物”,你会觉得“这是合成的,不是真的”;但深度学习没有“常识”,只要数据里的“特征符合它学的规律”,它就会判断错。

比如科学家做过一个实验:给机器看一张“上面贴了几个小贴纸的猫图片”,机器就判断“这是狗”——因为那些小贴纸的特征,刚好符合它学的“狗的特征”,它就被“骗”了。

再比如自动驾驶的“陷阱”:有人在马路上画了几个特殊的条纹,自动驾驶的深度学习模型就会把“斑马线认成停车线”,或者把“限速牌上的数字认成别的”——这就是“对抗性攻击”,用微小的、人眼看不到的改动,就能让深度学习犯低级错误。

这个缺点就像“一个很会做题的学生,但遇到‘题目里有陷阱’的题,就会做错”——因为他只看题目表面的特征,没有“这道题可能有陷阱”的常识。

六、深度学习的未来:不是“取代人”,而是“帮人干活”,让生活更轻松

很多人担心“深度学习发展下去,会取代人的工作,甚至超越人”,其实这种担心有点多余——至少在未来几十年里,深度学习的定位还是“人的工具”,它能帮人干“重复、枯燥、复杂”的活,但代替不了人的“创造力、情感、常识”。

咱们聊聊深度学习未来的几个发展方向,你就知道它不是“要取代人”,而是“要帮人过得更好”:

1. 方向一:“小数据也能学”——解决“没数据活不了”的问题

现在科学家正在研究“小样本学习”“零样本学习”,比如让机器“只看10张猫的图片,就能认猫”,或者“没看过老虎的图片,但知道‘老虎是像猫一样的哺乳动物,有条纹’,就能认老虎”。

要是这个技术突破了,深度学习的应用范围会大大扩大——比如偏远地区的医院,没有足够的罕见病数据,也能靠AI辅助诊断;比如小公司想做AI产品,不用花几百万买数据,也能开发出来。

2. 方向二:“能解释自己的判断”——从“黑箱”变成“透明箱”

科学家正在研究“可解释AI”,让机器能“说清楚自己为什么这么判断”——比如医疗AI判断“患者有肺癌”,能同时指出“是ct影像里的这个阴影,形状和大小符合肺癌的特征”;比如自动驾驶AI刹车,能解释“因为前面30米有一个行人,速度是5公里\/小时,所以需要刹车”。

要是这个技术实现了,深度学习在医疗、法律、金融这些“需要负责任”的领域,就能发挥更大作用——医生可以参考AI的判断,同时知道“AI的理由是什么”,最后还是由人来做最终决策。

3. 方向三:“结合常识”——让机器更“懂人”

现在的深度学习没有“常识”,比如它不知道“人不能在水里呼吸”“太阳从东边升起”,科学家正在研究“把常识教给机器”——比如给机器喂大量的“常识数据”(比如百科全书、生活常识手册),让它学会“用常识判断问题”。

要是机器有了常识,就不会犯“把贴了贴纸的猫认成狗”的低级错误,也能更好地理解人的需求——比如你说“帮我订一张明天去北京的票,要早上的”,机器会知道“早上指的是6点到10点,不是凌晨2点”,因为它有“人通常早上6点后起床”的常识。

4. 方向四:“和人一起干活”——人机协作,效率更高

未来的深度学习,会更注重“和人配合”——比如工厂里,AI负责“检测产品的缺陷”(重复、枯燥的活),工人负责“修复缺陷、改进生产流程”(需要经验和创造力的活);比如设计领域,AI负责“生成10个设计方案”(快速、大量的活),设计师负责“挑选方案、修改细节”(需要审美和创意的活)。

这种“人机协作”的模式,不是“机器取代人”,而是“机器帮人省时间,人做更有价值的事”——就像现在的洗衣机取代了手洗,但人没有失业,而是有更多时间做别的事。

七、总结:深度学习没那么“神秘”,就是“模仿人学习的逻辑,用数学模型帮人干活”

看到这里,你应该对深度学习有个清晰的认识了:它不是“外星技术”,也不是“会思考的机器人”,就是“模仿人从简单到复杂的学习过程,用多层数学公式组成的网络,从数据里找规律,帮人解决问题”。

咱们再用三句话总结一下:

1. 本质上:深度学习是“多层神经网络+大量数据+反复调整参数”,核心是“从数据里学规律,而不是死记硬背”。

2. 作用上:它能处理图片、声音、文字等复杂数据,帮人干“重复、复杂、耗时间”的活,让生活更方便、效率更高。

3. 未来上:它会继续改进“数据依赖、黑箱、没常识”的缺点,成为“人的好帮手”,而不是“取代人”。

其实现在的深度学习,就像“一个刚上小学的孩子”——它很聪明,能快速学会很多东西,但也有缺点(需要大人教、说不出理由、容易被骗),未来还有很长的路要走。而我们作为“使用者”,不用害怕它,也不用神化它,只要学会“用好它”,让它帮我们解决问题、节省时间,这就够了。

上一章目 录下一章存书签
站内强推玄鉴仙族 新白蛇问仙 娱乐人生从三十而已开始 校花之贴身高手 为奴 四合院之车门已焊死 误惹豪门:强娶迷糊小甜妻 独醉天涯 快穿之反派大人是病娇 大佬今天要立遗嘱了吗 漫游五界 封总,太太想跟你离婚很久了 我医武双绝,踏出女子监狱起无敌! 国民导演 老婆比我先重生了 相师 拐个帅鬼萌萌哒 抗战从影视我的团长开始 战双帕弥什之渡鸦 起猛了,求生木筏怎么多了个女人 
经典收藏聚宝仙盆 虚空塔 辞凤阙 网游之血御天策 炎武战神 闺蜜嫁一家,我是儿媳她是婆妈 大齐魔人传 做饭太好吃,被整个修仙界团宠了 高纬游戏 渣男白月光回国后,豪门千金她不装了 凤命凰谋 末世降临,游戏场内危机四伏 戮途 一睡万年 短命老公遗产多,豪门寡妇我最强 二次元心愿旅行 侯爷,见到妾身为何不跪 斗罗:重生邪魔虎鲸王,多子多福 九零:你攀高枝我另嫁,后悔啥 穿越八零:糙汉厂长把我举高高 
最近更新遇见陈宇 宝可梦:开局毒贝比成就大师 心剑破道:独尊九天 成语认知词典:解锁人生底层算法 觉醒指南从一碗粥到一朵花 冷面大佬的致命偏宠 魔修兵王共闯恐游,双向救赎 医妃携系统,废柴世子宠上天 和亲公主靠吃瓜为生 我的通透活法 盗墓:穿越盗笔当神仙 求竹马们贴贴,我有皮肤饥渴症 你惹她干嘛?她敢徒手揍阴天子 绿茶病美人私底下烟酒都来啊 缠娇鸾 恶婆婆重生后,替嫁儿媳赢麻了 武侠世界寻仙,原来我才是仙 梦亦梦非梦 吴名卷 我的笔仙只想骗我入江湖 
大白话聊透人工智能 巴蜀魔幻侠 - 大白话聊透人工智能txt下载 - 大白话聊透人工智能最新章节 - 大白话聊透人工智能全文阅读 - 好看的其他类型小说