TGFC俱乐部>>完全数码讨论区>>
- 刷新/显图/登录/注册/WEB
标题:现在这么多AIPC笔记本,AI模型本地运算意义在哪?
时间:24-04-19 09:49
作者:hikari34

掐它鸡皮提或者kimi这种线上的不是更好用?对笔记本来说也更省电,效果也更好。
我感觉只有涉及机密内容的工作才有必要用到这种纯本地的AI吧





回复列表 (34)
#2 爱猫咪的薛定谔 2024-4-19 10:00
posted by wap, platform: Android
免费

===================
#3 wtdd 2024-4-19 10:53
基本都是简单影像编辑之类的,干不了什么正事,但大家都在卷,你也不能没有啊

===================
#4 coolmenu 2024-4-19 14:33
posted by wap, platform: MAC OS X
理解为手机的微创新,现在 cpu 也升级不出啥特性了

===================
#5 lanqiuxie 2024-4-19 14:39
图像剪辑,文字处理什么的,最终还是要输出的。比较适合所谓的移动办公吧,网络环境不是很确定。不过肯定是一个趋势性的功能了

===================
#6 春熙 2024-4-19 15:07
posted by wap, platform: Android
创造需求



===================
#7 qazqaz 2024-4-19 15:18
为了噱头骗你买。

和之前的什么垃圾扭曲屏,5G等异曲同工。

===================
#8 phonixcry 2024-4-19 16:11
posted by wap, platform: iPhone
自己调参,在线模型各种安全限制

===================
#9 lvcha 2024-4-19 16:16
posted by wap, platform: Firefox
首先,这个跟本地用模型画妹子和用在线模型画妹子道理一样。你想画个那啥的不就得用本地的吗。
其次,你公司的文档或者代码你想用大模型去处理怎么办?不得自己公司训练一个给员工用吗?gpt又不知道你公司内部的专用语

===================
#10 hikari34 2024-4-19 16:49
现在那些个AI笔记本里的模型能自己调参和训练了?

===================
#11 DarthVadar 2024-4-19 17:05
posted by wap, platform: iPhone
那些aipc连本地跑模型推理都不行

营销噱头罢了
就是来搞笑的

===================
#12 Squallgjs 2024-4-19 17:46
intel最新的U7 U9,整个本地编程助手之类离线小模型还行,SD出图的话试了512x512和1060差不多快,也能将就用用,生成个UI图标,自媒体配图之类的没问题,总之就是可以个人用,也不算噱头。
AMD的就差了,速度有点慢。
新出的本子也没因为这个功能涨价,解决了有和没有的问题。

泥潭有些人还是先了解下,不要张嘴就来,到处是测试视频,再说没人会用这种轻薄本来做训练。

[ 本帖最后由 Squallgjs 于 2024-4-19 17:49 编辑 ]

===================
#13 DarthVadar 2024-4-19 17:58
posted by wap, platform: Chrome
就是NPU这种移动端早就玩了好几代的玩意儿,做AIGC只能说勉强,本地大模型也跑不起来
也难怪intel吹了AIPC之后,苹果马上开始说AI了
厨子想你这也叫AI,那M1就是AI了

===================
#14 yangzhicai 2024-4-19 18:01
有限的几个场景的推理放在本地了,聊胜于无

===================
#15 夜游子 2024-4-19 18:18
本地部署最大好处是避免道德审查吧

===================
#16 Squallgjs 2024-4-19 18:35
posted by wap, platform: Android
什么npu,这个只是添头而已,一直是没啥大用的东西,这次gpu性能和规模直接翻倍看不见吗?作为1.4kg的轻薄本timpspy都3600了,让游戏和本地模型都成为了可能。
苹果m1能玩个生化8都满天吹,这边核显翻倍了吹吹到变噱头了...

===================
#17 DarthVadar 2024-4-19 19:34
posted by wap, platform: iPhone
搞了半天ai又扯到打游戏了
实际上绝大多数人最合适的就是老老实实gpt gemini copilot
本地大模型属于纯粹的鸡肋
aigc连8g m1都有傻瓜式部署的diffusionbee和draw things
过了都三四年了 突然拿个sd出图都吹上AI了
而且windows阵营明明有老黄这个更现成的解决方案
需要你intel扯淡吗

本帖最后由 DarthVadar 于 2024-4-19 19:36 通过手机版编辑

===================
#18 卖哥 2024-4-19 19:44
能够本地为啥要云?

===================
#19 DarthVadar 2024-4-19 19:50
posted by wap, platform: iPhone
原帖由 @卖哥 于 2024-4-19 19:44 发表
能够本地为啥要云?
前提是你俩跑的是一个玩意儿

你现在本地的和云端的是tm一个级别的玩意儿吗

===================
#20 Squallgjs 2024-4-19 20:52
posted by wap, platform: Android
行了,苹果天下无敌,windows轻薄核显本不配存在,不配进步,即使从无到有sd跑6秒出图也是噱头(m1好像10多秒),本人比较low,暂时只会用sd和游戏能力评估核显ai性能,其他不懂,也不用赐教了

https://b23.tv/m0ko3AC

本帖最后由 Squallgjs 于 2024-4-19 21:31 通过手机版编辑

===================
#21 hisame 2024-4-20 09:35
posted by wap, platform: 小米 红米
简单说ai分两类,个人称为小ai和大ai
小AI就是车牌识别,轮廓识别,物体识别这种。修图修视频好用。
大AI就是大语言模型了,不是小冰小爱同学说废话,还要有一定的逻辑思维能力,有一些泛行业的基础知识。这玩意不止占cpu还占内存硬盘啊。



===================
#22 卖哥 2024-4-20 09:48
原帖由 DarthVadar 于 2024-4-19 19:50 发表
posted by wap, platform: iPhone
前提是你俩跑的是一个玩意儿

你现在本地的和云端的是tm一个级别的玩意儿吗

这不是更对了么
既然存在不一样量级的应用,且一类应用足够本地运行,这类应用为啥云?

===================
#23 DarthVadar 2024-4-20 12:00
posted by wap, platform: iPhone
原帖由 @卖哥 于 2024-4-20 09:48 发表
这不是更对了么
既然存在不一样量级的应用,且一类应用足够本地运行,这类应用为啥云?
卖哥你是脑袋秀逗了?还更对了?

难道云的那一类应用是你跑的本地大模型级别的?

啥叫足够本地运行?llama70b的推理能力都赶不上gpt4,那intel营销的ai cpu哪一个能本地部署70b?

===================
#24 hikari34 2024-4-20 12:11
大概懂了,买AIPC送一个免费小学生助理,云端是高中生助理但是通常都要加钱,看你工作需要了。

===================
#25 永不加赋 2024-4-20 17:51
posted by wap, platform: iPhone
原帖由 @hikari34 于 2024-4-19 09:49 发表
掐它鸡皮提或者kimi这种线上的不是更好用?对笔记本来说也更省电,效果也更好。
我感觉只有涉及机密内容的工作才有必要用到这种纯本地的AI吧
满足个性化xp?

===================
#26 sharonsl 2024-4-20 19:54
posted by wap, platform: Android
英特尔股价跌到英伟达的零头都不剩了,再不趁着AI风口吹一波以后还怎么混?

===================
#27 卖哥 2024-4-20 23:51
原帖由 DarthVadar 于 2024-4-20 12:00 发表
posted by wap, platform: iPhone
卖哥你是脑袋秀逗了?还更对了?

难道云的那一类应用是你跑的本地大模型级别的?

啥叫足够本地运行?llama70b的推理能力都赶不上gpt4,那intel营销的ai cpu哪一个能本地部署7 ...

这就是对了呀。

你想否定的是本地替代云对,而我的观点是各有各用。
还是说你认为AI=跑大模型?

===================
#28 威尼斯睡裤 2024-4-22 14:41
posted by wap, platform: iPhone
原帖由 @DarthVadar 于 2024-4-19 19:34 发表
搞了半天ai又扯到打游戏了
实际上绝大多数人最合适的就是老老实实gpt gemini copilot
本地大模型属于纯粹的鸡肋
aigc连8g m1都有傻瓜式部署的diffusionbee和draw things
过了都三四年了 突然拿个sd出图都吹上AI了
而且windows阵营明明有老黄这个更现成的解决方案
需要你intel扯淡吗

本帖最后由 DarthVadar 于 2024419 19:36 通过手机版编辑
微软觉得需要Intel,你觉得不需要,你算老几

老黄能保证每台电脑都配一张他家的显卡嘛?不能那你说个卵子

云端大模型能像随身设备那样贴合用户需求,采集个人数据嘛?设备端普及AI明显能拓展更广的场景和应用模式。

===================
#29 DarthVadar 2024-4-22 14:54
posted by wap, platform: Android
原帖由 @威尼斯睡裤 于 2024-4-22 14:41 发表
微软觉得需要Intel,你觉得不需要,你算老几

老黄能保证每台电脑都配一张他家的显卡嘛?不能那你说个卵子

云端大模型能像随身设备那样贴合用户需求,采集个人数据嘛?设备端普及AI明显能拓展更广的场景和应用模式。
intel需要吹牛逼
然后你觉得被忽悠很自豪
你咋不问问微软能不能每台pc配intel ultra呢

本帖最后由 DarthVadar 于 2024-4-22 14:57 通过手机版编辑

===================
#30 DarthVadar 2024-4-22 14:56
posted by wap, platform: Android
原帖由 @卖哥 于 2024-4-20 23:51 发表
这就是对了呀。

你想否定的是本地替代云对,而我的观点是各有各用。
还是说你认为AI=跑大模型?
ai不等于大模型
但是intel吹牛逼aipc就是主要吹大模型

===================
#31 威尼斯睡裤 2024-4-22 15:25
posted by wap, platform: iPhone
原帖由 @DarthVadar 于 2024-4-22 14:54 发表
intel需要吹牛逼
然后你觉得被忽悠很自豪
你咋不问问微软能不能每台pc配intel ultra呢

本帖最后由 DarthVadar 于 2024422 14:57 通过手机版编辑
笑死,AMD那边早就加入了,还在盯着Intel输出。
从高通到Intel再到AMD,微软就是能保证24H2以后新出的每台PC都是AI PC,有本事以后号称AI PC的你都别买

本帖最后由 威尼斯睡裤 于 2024-4-22 15:27 通过手机版编辑
附件:: [您所在的用户组无法下载或查看附件]


===================
#32 hikari34 2024-4-22 16:05
:绿脸贱笑:兔脸红: 高通现在也是AI手机,感觉现在AI上苹果完全落后了,起码吆喝声完全落后了,大家都觉得win和安卓和鸿蒙要按着IOS OSX打了,身边还真有人是因为AI功能去买华为的那个新手机和新电脑的

===================
#33 xiagnice 2024-4-22 16:24
问题来了,买了个AI笔记本回来重装了个win10,那些AI功能还在么:绿脸贱笑:兔摆手:

===================
#34 sceic 2024-4-22 16:44
我能想到的是用本地ai核心做计算节点,给完全免费的用户提供计算支撑,然后换取信用值给自己去使用云端高版本机会。:绿脸贱笑:

===================
#35 odioanatre 2024-4-22 18:13
有一些工作文档和文字处理在本地处理更方便吧,也更容易训练。有些不便直接发网络的终归还是断网状态比较让人放心,当然也不见得安全就是了。

===================


[登录后才可回复]