我也给大家探讨一下,我看了各位,我和AI有个碰撞的感想。

看了大家写的征文,我觉得大家写的这个想法也许在未来的几年后会逐步逐步的改善升级和优化的。那么今天我就随便来说一下大家对我和AI碰撞的以下几个看法。第一个看法,那就是我本人自己写的想法,主要呢就有两方面。一方面呢就是无障碍电影的识别。正如我在征文里说啦,自从有了这个视频理解功能过后,我平常刷短视频的时候再也不用害怕刷到某个短视频的时候不知道是什么内容,毕竟有的短视频它只是音乐,没有人声,那么这个时候只要借助AI模型帮我描述一下这是一段什么视频,它是在户外还是在室内?但是呢我们更多的想象力就是如果未来的十几年后,甚至二十几年后,AI模型能够做到帮我们实时描述无障碍电影,那该多好。虽然现在有热心的志愿者帮我们讲了大概十几万部的无障碍电影,但有的时候包括我本人,甚至有些盲人对那些电影或电视剧的资源不够满足。甚至有些电影希望志愿者那边讲,但是志愿者那边说这个没版权,这个版权很难获取到。譬如我心目中有些喜剧电影呐,恐怖电影呐,大多数的志愿者不可能无缘无故的讲恐怖惊悚的电影,而变成无障碍口述给你听,对吧?所以呢我就在文章里提到,希望未来的AI模型能够发展到可以全面的讲解我在页面里播放的这个电影,进行语音实时口述。另外一点,我提到的这个导盲机器狗,虽然现在有人正在帮我们测试导盲机器狗的实用技巧,但是呢有时候我们不得不承认,当导盲机器狗的摄像头识别前面物体的时候,如果你的光线足够好的话,甚至摄像头足够清晰的话,他肯定会准确的把前面的物体告诉你。要是你的光线有一点点不好的话,甚至在暗一点点的地方的话,它有可能会胡说八道。上个月我用豆包的视频通话,他我让他帮我识别前面的证书,你还别说,它识别朗读的挺准确的,但是呢要是那个文字很小的话,甚至光线有一点不好的话,他有可能把那个证书识别成其他的课外书。进行胡说八道。就像正如九年前的那个一点资讯有深专栏海波在那个文字识别的那个讲座里所说到的那样。对不对?大家一听说这个识别软件一出来了,觉得很开心,很惊喜,立马就恨不得拿来测试一下,一开始你还别说它的效果识别挺好的。但随着时间的变化,发现你在一个不好的环境里,那个文字识别出来朗读的结果有时候不是那个广告牌里显示那样的内容,他是在胡说八道。所以这个时候只能够求助周围的人,帮忙看看广告牌是什么内容。这已经是9年之前的事了,9年后的今天总感觉那个文字识别好像没怎么进步来着。毕竟这个文字识别嘛,正如海波所说的那样,你有时候你对着那个文字的时候,要么就对准一点进行聚焦,要么你刚想文字识别对的准的时候,他死活就是没反应,当你把这个摄像头移开的时候放到另外一个有文字的那个广告牌的时候,他就立马帮你朗读,你放在刚刚广告牌的那个文字,你说有时候是不是很无语呀?所以有时候大家只要上来咨询,为什么讯飞星火和质朴青年在视频通话识别周围环境的时候特别不准呢?为什么我的豆包我对着我前面的那个物体的时候,我告诉他这个是饮水机而他就把我的饮水机识别成冰箱呢。这就是目前技术中还没办法解决,如果再暗一点点的环境下,甚至文字特别小的情况下,帮你识别准确的这个痛点。虽然这个现在的技术很难突破,但我相信随着现在的人工智能升级,后面肯定会渐渐的慢慢去优化和升级的。接着我们来说一下几位网友写的挺好的文章,他们的想象力首先第一个网友,有一个网友说虽然现在的人工智能对我们的生活带来很大的便利,但是呢有时候对我们盲人的认知还不够,譬如他提到我们这个数学图形的认识。如果未来能够做到准确的帮我们描述数学书的那些图形,那就更完美了。然后也有人说我是肢体残疾,我说话口齿不清,如果未来人工智能能够帮助我辅助进行语音实时对话,那么我就更方便的与别人沟通交流。其实现在这个技术早就有了,譬如那个科大讯飞就专门做这样的技术。有一款应用叫做讯飞听见,如果购买了那个讯飞听见的翻译器或者那个注视耳朵,注射器戴在他的头上,可能他用手打文字或者用想象力去打文字的话,那就很方便的跟我们沟通,对于肢体残疾也好,聋哑人残疾也好。可以特别方便的跟我们其他的残疾人沟通了。还有的网友说未来这个智能眼镜,我把自己的命能够实时交在这个眼镜的安全下,我就可以通过智能眼镜配合AI模型的引导下,我就可以方便实时出行了。这就是以下这几个网友他们写的挺不错的文章,我对他们朗读的看法。只不过我得来说一下我对最后一个网友智能眼镜掌握在他们手上的几个看法。我发现这几年有些网友在这里发帖的时候,他说点名官方这里啥时候推出一个能够让盲人更方便出行的智能眼镜呢?或者是点名官方这边啥时候能够升级一下点名出行,让点名出行能够更无障碍的带我们出行。前面有啥他就告诉我啥呢。诶,没错,这个网友相信很多人就知道他就是火箭男孩,他对这种技术也许感兴趣到痴迷了,所以呢经常就不停的提这样的问题。但是我要说但是了,我发现大多数的盲人就是有这样子的想法,如果这个导盲机器狗出来了,甚至智能眼睛出来了,我什么都不想做,我就是把那个命运交给这个导盲机器狗。交给这个导航什么都不用想,我告诉他我的地点,我想去哪儿就去哪儿,我外面的求助我都懒得求助了,请问这样对不对呢?那得要看一下,上个月小米苏七汽车发生了一个特别不好的事情,那就是那个时候有新闻报道说什么有三个学生困在小米汽车里。可能他们当时开启了那个自动驾驶功能。没来得及塞车嘛,然后有可能那个车失控了,突然那个车就着火了,他们就特别慌,结果就没什么办法如何去自救,然后后面就导致那几名学生死亡了。通过这则新闻我们才发现现在的人工智能是完全不能把整个人的生命掌握在人工智能的手上,也就是说如果我们把自己的命掌握在人工智能的手上,那么风险还是挺大的。现在可以准确的说完全做不到把我们自己所有的生命掌握在人工智能手上。所以大家平时出行的时候还是乖乖的学会如何独立出行,独立出行的时候,有必要的话还是要求助周围的人帮忙的。你光靠一个导航或者是智能眼镜,甚至是导盲机器狗是根本不够的。如果你让人工智能完全能帮助你独立出行的话,什么都不用想的话,目前是做不到,但我们也会期待。说不定10年后,20年后,甚至30年后,这个技术慢慢成熟了,那么我们就不用担忧啊,我们整个人交给人工智能,我让人工智能带我去哪儿我就去哪儿,到那个时候就会有这样的安危了。这就是今天我要给大家探讨和感想的我和AI有个碰撞的感知感想了。

发表于:2025-05-27 17:25
1个回复
您还没有登录,登录后才可回复。 登录 注册