2025-05-09 00:00:00
之前去日本的时候就想要一个可以记录全景的相机,一直没买,这次去越南,刚好赶上了,Insta 360 4.22发布新品,当晚就买了,23号就拿到了,25号就出发了。
平时不出门的时候,也能拿这个当作Su7的行车记录仪,Su7的行车视频不能直接导出(刚好在五一期间车机更新了1.7.0,竟然增加了这个快速导出分享给手机的功能,我服了)
https://www.insta360.com/cn/
选了个全能套装+256G官方SD卡,总价格4673,买的还是太匆忙了,后续发现很多东西没啥用,完全没必要买。
其他的东西大差不差,我本以为这东西都迭代5年了,应该还不错吧,实际体验发现还是很粗糙啊。
这个全景相机拍到的东西,你不能直接分享,你必须给他传到他们所谓的云空间里,你才能分享给其他人。
然后这个云空间,他要钱,而且不便宜,你要分享给别人就必须走这个流程,太弱智了,这样玩你生态怎么玩得起来啊。
云相册下载的照片,不会出现在已下载照片中,他这个已下载仅仅单方面指从相机下载到手机里,我服了,这么抽象的嘛。
换句话说,这个云相册里下载的照片,你保存到手机本地,你是无法用Insta360的APP打开的,你只能在他的云端去浏览,不能用本地软件去浏览,这是什么奇怪设定,你如果没网,那么此时你就无法预览全景照片了,就算他已经在本地了。
相机的开始拍摄,有两个按键都可以触发快速启动+各种拍摄模式,但是如果这个东西你是固定在肩头或者头上,或者其他位置的,你想快速开始,你就得手动去按,或者是你买他的配件,有个蓝牙配件可以遥控。但是如果你用手机,就不行,就必须得保持机器是开机状态,然后用wifi连相机,再去控制相机,而机器开机就只能手动或者是不关机,但是耗电很厉害。
而相机明明自带了蓝牙,就是不让你用手机蓝牙,直接控制他快速开始或者结束,就逼得你去买他的配件。
全景上,如果近距离,全景拼接还是有问题的,特别是如果距离镜头可能只有10cm不到的情况下,全景拼接基本100%出问题。
全景的下部分,也就是隐藏自拍杆的地方,如果手持,连手也会一起被扭曲,他不是切断式的扭曲,他就是把你手扭曲了,这个处理也很奇怪。
要特别注意,镜头要擦干净,否则全景拍的素材基本不能用,下雨就会直接影响到拍摄的素材呈现,虽然他防水了。
剪辑或者桌面浏览软件就是 Insta360 Studio,这个软件就更一言难尽了。
打开就卡卡的感觉,加载视频或者照片以后,全屏,背景会狂闪不止。
作为一个全景相机,如果你不用他的剪辑软件,就没有哪个软件可以用来快速浏览视频或者照片,就非得从剪辑软件里打开。
其次,剪辑软件里我竟然发现好像不能对整个镜头快速做矫正,比如我倾斜了15°,我想软件纠正一下,不行
https://community.insta360.com/section/3/post/67887/
他必须先k关键帧,然后才能修改镜头相关属性,而不能对素材本身整体做一个修改,奇葩。
Adobe Premiere Pro的插件有bug,会导致某些非全景视频的素材,在剪辑过程中异常崩溃
手机APP的AI剪辑,直接就不能用,任何视频都直接卡51%,然后再也不动了,噱头大于一切,纯废物。
这个全能套装,配件基本大部分都是无用的,感觉我买了像个傻子
114cm自拍杆,建议不要买,官方的子弹时间或者其他第三方的更好(可以开展,自立),这个功能很弱,价格又贵
镜头保护套,不知道为什么,明明是镜头保护罩,但是硅胶材质的内部灌胶口还是合模线,这个东西会刮镜头,这个东西还是对称的,两边都会刮,这是什么弱智设计啊。
标准保护镜,这个会影响水下拍摄,同时在某些情景下,会导致画面糊或者不正常。
电池,电池是需要多备一个,买的急,电池不单卖,只能买这个套装
多功能充电管家,其实就是一个充放电盒子,电池放进去就变成充电宝或者充电器了,实际用起来发现,好像也不是很有用
收纳包,这个最没用,有了镜头保护套,整机可以随便放,收纳包占用空间又大,实际就能收那么几个东西,太浪费了。
背包夹,由于官方没有背包夹这种配件,就从外面买了一个,这个还行可以360°调整角度,但是如果你的包不够重或者是这个肩带有点光滑,这个也有点挂不住。
上当了,Insta360这玩意配件可真多,你想要的功能,可能本体没有的,全都在配件上,配件一个个都不便宜,真是好刀法,配件大概有一百个,我服了
2025-05-08 00:00:00
五一越南行记录
越南虽然说是落地签,但是不是真的落地签,在国内还是需要提前拿到一个批文,有了这个批文才能去越南落地拿签证。这个批文申请还是比较快的,一般选择电子版,收到以后打印出来(彩印),再准备1张2寸白底的照片
如果是落地签,也就是没任何准备的情况下飞越南,入境以后还要填写这样一个表格,需要贴照片啥的
如果是提前申请的电子版本,则不需要,落地以后去到海关窗口换取一个红色的纸质签证,越南他是不会在护照上给你盖戳的,所以后续行动这个纸质签证基本就等于你的越南身份证了,如果是电子签证进来的,这里不需要缴费,你在之前的环节就已经交了。这个签证这里,如果你愿意给小费,比如中国人大概就是100RMB,欧美可能是25美刀,可以立马拿到越南的签证,如果不给,等的话人不多大概就15分钟左右就能拿到了,如果人多那就有的等了。拿到签证以后才能正常过关。
越南盾,国内比较难兑换,可以考虑到了地方以后再换,本地银行某种程度上不如钱庄来的方便,快捷。所以本地换就行了,参考下汇率不是差很多就行。
越南对于微信、支付宝之类的支持比较少,大部分都是现金交易,所以没现金肯定是不行的。
剩下的高端场所Visa可解决一切,越南本地有四个支付APP或者二维码,但是推广力度比较弱,街面上很难遇到支持的店。
总体越南对于我们来说是消费降级的,大多数东西都非常便宜
Grab,相当于美团、滴滴、大众点评集合体,基本必备,用谷歌账号就能登陆,不需要电话卡,绑定VISA就可以随便支付了,没VISA可能需要付现金,出门打车就行了,要注意越南比国内查头盔还严格,一定要带头盔,越南这边一个人打摩的,比打Taxi快的多,摩的太多了,路上汽车根本提不起来速度,行驶很慢。
建议带伞,很容易下雨,都是阵雨,再加上特别热,白天晒死个人,防晒要做好
自己略微学习了一下越南语,简单的句子,够用就行了,谷歌翻译足够解决大多数问题
Bao nhiêu tiên-多少钱-波妞汀
cái này-这个-该那一
Quá đắt-太贵了-夸达一 或者是 麻瓜(南越和北越,也有一些方言的差别,所以说法可能略有不同,这是当地人直接教我的)
感觉好像越南的语言看英标还是挺好发音的,只是不会语法而已
具体的钱:直接计算器就行了,由于越南盾最低是1000货币,所以计算器上代表的的都是多少*1000,其实就是多少k
越南是英标,所以三角插头需要转换的英标插头,如果只是两脚插头,那是通用的。这里买了一个多种转换头的,以后去其他国家也方便,可以随便切换头
越南住宿环境一般,蚊虫啥的比较多,建议带好驱蚊、避蚊类的产品,容量不要超过100ML就能正常带上飞机
https://saigonhotpot.vn/
五一出行不太适合,因为胡志明4.30可以认为是国庆了,学生在这之前已经放假了,一个作为导游的学生组织,此时根本找不到学生带你去。如果是其他时间,可以考虑找个学生导游一起玩,你报销出行吃饭啥的就行了。
https://xotours.vn/faq.html
还有一种是奥黛导游,价格不菲,至于除了导游,还导什么,可能就要看钱了,路上确实见到了好多对这种模式的陪玩。
国泰的航班,安检也非常松,什么电脑、移动电源啥的都不需要拿出来。一直担心的避蚊胺,安检也完全无人注意,实际出发晚了很久。
hot tea给的被子是带褶皱的,这个褶皱刚好模拟了热水的热气蒸腾的样子,抓在手里也不烫手,隔热,这个设计有点意思,而普通的冷水给的就是一个青绿的,偏冷的被子,二者区分非常明显
餐食中还会给一个哈根达斯冰激凌,还不错。
电子签需要先把护照和纸质签证,两寸照片给到那边换取越南单页护照,然后再去排队入关
刚下飞机入关人还挺多的,等换到签证,就没多少人了,总共入关也就半小时,这个很吃时间点,国内凌晨飞机,入关得两小时,人贼多。入关也很简单,看完签证就直接可以走出去了,也没啥弯弯绕绕的了。
排队等待过关的时候,托运的行李会放在外面等你自己过去认领,如果有人接,在别人来之前,不要早早出机场,里面有冷气,外面就很热了,而且不能返回机场内
胡志明一共待了5天,由于需要工作,所以是闲时出游,断断续续的。胡志明落地第一口气,一定是汽车尾气味道(主要是摩托车尾气),很明显的。所以在整个越南都能看到本地人自己也戴口罩。
由于是在胡志明工作,所以空闲时间就去几个景点,大概市中心都逛过了
耶稣圣心教堂,就是粉色比较特别,其他的倒是没啥
西贡圣母大教堂,好像还在维修,看起来都2年了还没修好
书街,主要是卖旧书、纪念品、明信片、冰箱贴之类的手工艺品,但是也基本没空调,很热
中央邮政局,邮局内有风扇、空调,稍微凉快一些,卖的主要也是手工艺品,只是这里确实可以寄送国际邮件,明信片贴上邮票就能寄出
市政厅-胡志明广场,这个没去,但是路过了,歌剧院,也是路过了,只是看了看样子,胡志明市博物馆,准确说是战争博物馆,无非就是解放时的历史,好比去看长征博物馆,所以也跳过了
独立宫,去了两次,两次都没进去,第一次是去的太晚了,16点才到,他15.30闭馆,第二次时间没问题,但是奈何应该是有领导人或者什么访问,实际并不允许进入了,只能外面看看
艺术馆(Bảo tàng Mỹ thuật Thành phố Hồ Chí Minh),一共有三个展厅,和胡志明历史相关性还是非常高的,主要就是反映殖民时越南人民收到的压迫,妇女的悲惨现状,接着是南北战争的内容、后面就是反压迫、反帝国主义、现代化建设的一些主题了。还有一个馆是比较远古一些的东西、陶器、佛造像、漆器什么的,但是保护的都很差。
门票大概9块钱,非常便宜
需要存包,不允许相机拍摄,但是允许手机
艺术馆,总体还是很破旧的,主厅都是没有空调的,很热,只有个别几个个人艺术家是有专门的展厅,内部有空调。
滨城市场,建议不要去,就是义务小商品,价格偏高
天后宫(Thien Hau Pagoda),其实这里的天后就是妈祖,供奉的也是妈祖,林默娘
越南本地料理,菜下白色的像纸一样的就是paper rice,就是主食,一次最好就卷一页,卷多了很韧,很难咬动。
点的菜基本上都是一盘肉拼一盘菜的样子,菜里面有鱼腥草,非常腥气,一定要注意,薄荷叶也混在里面,倒是生吃味道不错。
如果在正常一些就是越南的米线、河粉什么的,没啥特别特殊的,唯一就是给的随机绿叶子很容易带鱼腥草,很腥气
越南街边普通的饭都是碎米,而不是国内的整米,吃起来碎碎的,有点难受。还吃了一顿潮汕火锅,价格大概是国内的两三倍,着实有点坑傻子的感觉。
越南的中国菜、日本菜都有些偏贵。
去了一个miumiu按摩,一言难尽,便宜,一百多,但是服务感觉很挫。
进去要换鞋,然后光脚,那个地是鞋子踩过,脚也踩,无语了。
换衣服,衣服是那种类似丝质的,刮身体,扎扎的感觉,难受,穿不了2分钟就给你脱了。
按摩的那个床,躺下去你就能感觉到之前残留的精油似乎还在
按摩的环境他本意是想安静、静谧的,但是那个技师按倒中间咳嗽,还时不时跟旁边的说几句话,无语了。
之前看到的便宜又好的服务在哪里?缅甸嘛,胡志明这个太一般了。
范五老街,类似酒托一条街,很多店员或者女性工作者在路边拉客,台上跳热舞什么的
日本街,正儿八经的红灯区,挂着红灯笼的,一群一群的女的穿着奥黛坐在店门口招你上去。
越南油价比较低,本身也是石油出口国,大概是5.5,对比国内是7-9左右
越南存在大量的摩托车,电动车非常非常少,基本每条路上都是满满的摩托车,汽车和摩托混行在一起,汽车速度相对而言很慢。在越南的这么多天,基本没见过交通事故,基本天天打车,但是路上汽车和摩托车就像海里的鱼群,大鱼小鱼混在一起,就是那么自然流畅,大家似乎见怪不怪,各种避让,缓行,加塞,好像大家都没啥脾气,虽然bb声经常有。摩托司机都带头盔,也鲜有不遵守交通法规的,红绿灯都会停会等,而走在路上的行人,经常要穿过这个混合车流,大家都避让的很及时,没有出过问题,甚至我们逆行人流、车流,随意穿梭,都没出现什么问题。
普通人的日子还是有点苦,大概是中国三十年前的水平,人均月收入才有2700RMB,大部分人是在这以下的。
胡志明的河边与河内的湖边比起来就差很多了,胡的垃圾都没人收,而河内这边随处都有垃圾箱,人超多的情况下也没有爆满
这边的寺庙,教堂大差不差,见过一个就行了,寺庙基本都是国内的道教的寺庙,反而不是佛教的,里面都是中文
胡志明的华人老街,确实有很多中文牌匾,甚至他们小学门框上写的都是中文,只是不知道是否还教授中文。中文的牌匾下的店面大门紧闭,旁边没有中文的反而在开门做生意。仔细看开门的每家,都还是当年两广+福建的传统,供奉关公,财神什么的,甚至听上了年纪的老人说着闽南语,中国人基本都走了
河内一共带了3天多,主要是在老街区附近玩,其他区域去的比较少。
胡志明机场进入不需要安检,过安检需要脱鞋,跟新疆似的,实际安检又特别松,根本没人注意你带啥了,水什么好像都没影响
河内机场也比较小,下机立马就能出机场打车了,这种感觉还挺好的,比国内那种弯弯绕强多了 机场出来就是5车宽的大道,接着河内第一次堵车,真的车祸了,笑死,不是堵摩托了,看起来河内比胡志明要发达很多,真的有高速了,摩托不和汽车混在一起了,车速也快了很多
河内摩托少了很多,感觉比胡志明少80%,汽车比较多,整体街道啥的规划或者修缮上都比胡高一个档次
还剑湖,当天是国庆节,人挺多的,总体观感还行,可能是有了胡志明垫底,水边也有点脏,有点味道,中间有个玉山祠,去看了一下也是全中文的
巴黎圣母院越南高仿版本,这个进不去,但是外面看着很像回事,挺好看的。黑魂之类的借鉴了很多这种建筑。
北门教区教堂,这个可以进去,里面基本没有人,很安静,拍个照就走了
升龙皇城,巧了刚好4.30到5.2有水上木偶表演,大概看了一下有点意思,不知道他们这个水下是怎么做的,木偶还能跳船移动。皇城里面的内容一般般,他这个缺乏讲解,很多内容看得不是很明白。
皇城出口对面就是一个发掘遗址,这里建议不要来,探方全都被遮起来了,那我不知道来这里是看啥的,啥都没有,纯大坑,还好几个。不过也有一些亮点,入口的盆栽,感觉被这里的园丁维护的不错,每个都不一样,小景造得都挺好的。
这个遗迹背后就是胡志明纪念馆,很大一个建筑,有点毛主席纪念堂的那个意思,但是更大,更雄伟。墓前就是一片广场,也有很多人拍照打卡。
西湖还是臭臭的,湖边的水上飘着垃圾,下过雨的胡志明简直是垃圾成山,地上全是泥,而河内就好很多,地面明显还是干净一些
镇国寺,由于当天没开门就没进去,西湖所在,景色一般,感觉不如杭州西湖,这里的古迹都是中国的,牌匾,石雕都是中文的
文庙,主要是纪念一个越南被中国统治时中了进士的,对应建立了这么个庙。然后里面有很多石碑,其实越南以前应该也是写中文的,但是这些石碑风吹日晒,已经有些看不清了。
文庙里还有一些传统的拓印,但是拓印完了以后,这里的工作人员还教小孩子去填笔画,就是把笔画里那些没印清除的用笔墨填充起来,额,这就有点尴尬了,本来拓印就是一次成型,后面去补就跟奇怪。然后这里的人对于书法的了解还是有点问题,他们把书法的中文当成一个符号,而不是字,对于笔锋回转等等笔触的痕迹,他们只是觉得要填充完,就像小孩刚开始学画画一样。而不仅仅是小孩子,这里收费写字的老人,在写完以后也回去再次填充笔画,不知道是因为这里人长期欣赏惯了这种填充方式,还是怎么的。只能说可惜了,越南文字本身也有书法,不过由于不认识人,所以不好鉴赏。
文庙内还有一个小黑板,沾水写字的,有个应该是日本来的女孩子,看她写了一会,还可以,起承转合都像模像样的,最后留下了一个日本名字,山田幸?
文庙对面就是一个旧书贩卖市场,按公斤算,很有意思。旁边还有一个展,主要是说明越南的主要产的农作物的由来,特产啥的
火炉监狱,建议不要去,主要是讲越南革命先辈被法国人囚禁的事情。监狱怎么怎么非人,最后这群革命先辈怎么越狱的。这个地方人挤人,是前脚贴后脚的程度,虽然他有耳麦自动讲解,但是奈何地方太小了,人太多了,来了你也不太懂跟你有啥关系,大可不必来。
独柱寺这个没去,就是立在湖中柱子上的一个小供奉点,有点那个广西老表清明祭祖的意思
河内36古街,本身就住在跟前,没看出来这个古街具体是什么风格,整个古街这边差不多都是为了旅游服务了,spa店一个接一个,洗头倒是没看到几个。
中间去吃了个特色披萨,Pizza 4P‘s
,披萨确实挺好吃的,就是现烤有点太慢了,等了接近一个小时这个披萨才上来,还点了个意面,这个竟然也要半小时才能上菜,简直饿死个人
河内这边有点不好,小超市好难找,买瓶饮料贼困难,好不容易看到一个,还在酒店内部,一进去,人下班了,河内老城区大部分小店,普通人的小店基本8点9点就关门了,不知道为啥,还开着的都是一些咖啡店。
下龙湾图上看很像桂林山水,但是桂林是内陆河。而下龙湾是沿海岛,如果能把这些岛倒过来,很有仙侠中的仙岛的感觉
下龙湾,这个是跟团去的,小团,大概十七八个人,导游挺有意思的,全程英语,会照顾你听不懂,他会单独跟你翻译,会讲一些笑话,调动氛围,不过我这个团中国人有点多,加上有人一开始就睡觉,还是有点冷场,但是你认真听就知道她讲的有点意思。由于住在老城区,所以可以车接车送,还行,用时间大概是一天。
先要从河内开到下龙市的港口,时间大概是2小时10分钟左右(这个车后屁股是真的不能坐,贼颠,减速带不停的),中间会停一个休息站,给你上厕所买东西什么的,其实跟国内有点像,但是不会强制消费,然后坐游轮玩,吃午饭,然后去下龙湾的三个景点(船上开船就要一个小时左右),。
路上在海防市看到很多4s店,有很多中国车企,比如,比亚迪,起亚,领克,五菱
第一次到达是吃午饭,自助,水平一般,吃完以后可以去游艇二楼三楼看看,二楼有个无边泳池,打卡拍照啥的会比较好看。三楼是个DJ露天酒吧,一般,似乎没有现场酒水服务,打碟的倒是有。
第一个去的景点是惊讶洞,其实就是溶洞,钟乳石,地方也不大,但是人挤人,导游讲解你不跟着,你就啥都听不到,类似日本皇城的体验。不过偶尔可以遇到台湾导游,都是中文讲解可以蹭别人的团
第二个景点是下龙湾的一些有点意思的山景欣赏,这里导游会问你是,坐普通船还是快艇,还是皮划艇(双人的)?反正快艇要加钱,20w,我选了快艇,我们整个团都没人选,还好导游没放弃我,还是给我指点到了位置,跟着谁,后续交流发现大家去的景色不一样。快艇是去各种象形的岛周边逛一圈,这个像人脸,那个像美人鱼啥的,快艇会各种漂移甩尾,刺激一点,不会湿身。普通船是划进一个山洞里看看,转一圈再出来。
最后是去天堂岛,这个其实一般,就是有个沙滩的岛,备了泳衣可以去游泳,也可以爬山,山不高,台阶高,走起来有点累人,山顶可以看到整个下龙湾的景色,还可以。这里给的时间比较少,基本爬完就要下山然后准备上船了。等待上船还目睹一起船祸,船头插入别人窗户里了。
后续就是坐一小时船,开2小时车回酒店,中间依然会去到购物点,强制休息半小时再出发。
富国岛一共停留了4天,岛上基本上大部分景区都去了,有些偏的要死的地方也去了,其实建议不去,很多地方开发程度很差或者地图上的点很久没更新了,实际去了发现早就荒废了。富国岛基本打不到摩托,宾馆附近可以打到摆渡车,价格比摩托翻倍,去远点就只能打车去。
小岛初见,确实空气很好,天很透
第一天到达以后,遇到的最好看的晚霞,之后的几天不是下雨、就是多云,再也没遇到这样的了
由于住在富国岛北部,距离wonder world很近,徒步就能走过去,路上有很多欧式建筑,成群的,看起来是做成了小商铺的样子,可惜是的基本是个死城,没几个商家,一直到wonder world才有很多有人的店铺。
Wonder World 主要景点就是一个竹制建筑 Grand World
他的左侧就是一个越南歌舞剧表演场,这个值得一看,演出效果还行
他对面就是越南威尼斯小镇,其实就是坐船逛一圈,建议单程就行了,再转回来也没啥特殊的,河依然是臭水沟,有味道。
Safari动物园,主要是看一下动物表演,早上10.30开始,和动物接触,只有猴园里可以直接摸,长颈鹿餐厅可以直接喂长颈鹿,其他的接触就没有了
走到最后还有一个猛兽园,这里乘坐大巴,在放养的猛兽中穿梭,其实也没多少猛兽,就是狮子、老虎、犀牛、野牛、骆驼、鹿、羊啥的(这里遇到一个恶心的,不知道为啥这个越南女的咋超级没边界感,本来就剩一个座位了,不适合她们两个人上车,她们非要上,上了以后就尼玛两个人坐我旁边,硬挤我,我服了)
海星沙滩,在富国岛最北边,非常偏,打车都是走的泥土路过去的,很多攻略都写的需要乘船过去,说是一个独立海岛,其实就是富国岛,只是有点远的沙滩而已,你愿意沿着边走,走路也能走过去。船费一个人大概是15-20w来回,找人拼船就行了
刚去的时候赶上下雨,直接被淋成落汤鸡,但是风景还是真的不错。
等到后面太阳出来,这个云是真的很好看
晚上去了阳东夜市,建议别来,环境拉跨,还是最普通的地摊,但是卖的东西可能比国内地摊还贵,感觉是专坑旅游的人的
北边还有一个Vin Wonder游乐园可以去,类似迪士尼那种,里面有水上的和普通的,玩乐内容挺多的,如果和Safari一起,可能一天不够用。Safari除了有白天的,也有夜晚动物园,不过门票价格略高,内容略少,比较少有人去。
Sunset Town,日落小镇,整个都是欧式风情的建筑,但是人太少了,很多建筑都是待开发状态,可能是五一是淡季吧
最主要是乘坐世界最长缆车,可以俯瞰半个富国岛
世界最长缆车,他的门票是直接到香岛的,香岛你可以认为是一个游乐园,里面有过山车,水上乐园,还有一个速度非常慢的观景升高的机器,有点像跳楼机,其他地方都还在装修和建设,没给开放。
缆车还是可以的,很长,能俯瞰整个富国岛南半岛,但是最好别遇到下雨,不然车厢里也比较难看清外面
过山车稍微有点刺激,进去前最好把门票能换成纸质的,不然一会刷完手机还要重新存包,重新存手机等,有点弱智。其实坐车里面就有储物台,完全可以让游客去里面存就行了。
香岛由于来的人少,所以游乐设施基本都不用排队,去了就能直接玩,还是挺好的。目前开放的区域比较少,而且餐饮店实在是太多了,大部分都是空的状态,给人感觉很挫,不如多弄点游乐设施。
水上乐园里项目比较多,可以漂流、跳水、冲浪、滑道等等,最好是提前带了泳衣来玩,没带现场也能买能换,由于不太会水,所以这里基本没玩。目前的香岛可玩项目就这么一点,门票200多,还是有点不划算的。
日落小镇的夜市,一般,比阳东夜市环境好一些,东西也就是那些cafe、海鲜、米线啥的。
接吻桥,如果有日落,有晚霞,应该很不错,有点鹊桥那种意思,两人可以各站一边,相隔接吻,下面还有一个平台,可以委托朋友帮忙拍照,还是不错的设计
Sun Signature Gallery,看起来好像是画廊?其实是个艺术展都算不上的东西,更像是酒店大堂,还没装修好,也没啥人,保安说你可以参观一楼,但是不能上二楼,里面也很久没人管了,东西看起来有点抽象,
接吻桥旁边的水上木偶戏竟然是免费的,不要钱就能看,这是万万没想到的,18点开始,大概表演到18.30,如果下雨也会继续,最好带着伞。小心他那个台阶很滑,容易扭脚,去得早可以直接抢占第一排,没想到河内没看的表演,在这里可以免费看了,嗨呀,血赚,免费的还有演员配合木偶一起表演。
最后的重头戏也就是这个海洋之吻的水秀,烟花,激光,舞蹈表演了,价格很贵,280的门票,效果确实不错,就是落日小镇确实没啥玩的了,这个表演是9点开始,9.30结束,为了等他,差不多从4点多就一直等了,中间各种无聊。
回国前,把谷歌地图上一些标出来比较繁忙或者看着像是景点的地方都去逛了一下,基本上都是废弃点,人烟稀少,景点早就被荒废了,差不多是富国岛的乡下地方了,车都非常少见,大部分又变回了胡志明的样子,出门靠摩托。
这次试了一下全程使用港澳通行证出和入,也就是我出国和回国不刷护照,完全没问题,而且速度比以往快的多,别人还在排队,我都出站转乘了。以后出国只要走香港,就全用港澳通行证,比护照方便太多了,也不用填啥入境单子,不用人工审核。感觉这应该算是个bug,香港入境时分不清这个人是来自于国内还是国外,入境走哪里完全靠自觉。
类型 | 费用 |
---|---|
机票 | 5029 |
住宿 | 4166 |
通勤 | 550 |
吃喝+购物+现金 | 3000 |
门票 | 1200 |
总计 | 13945 |
越南实际去的日子差不多也是11天,而且一半日子我都没花钱的,以为是去越南消费降级,不但没降,反倒是升高了,但是服务也就那样,没想得那么好。越南的韩国人还是非常多的,富国岛基本遇到的全是韩国人,国人也有,但是对比日本来说少多了。
https://www.bilibili.com/video/BV1xr5fz8ECF
https://www.bilibili.com/video/BV15H4y1n789
https://www.bilibili.com/video/BV1mN4y1S7xX
https://www.mofcom.gov.cn/dl/gbdqzn/upload/yuenan.pdf
2025-04-18 00:00:00
DeepSeek火了这么久,总算轮到我来部署一下了,部署小模型的挺多的,但是接近满血的大模型的好像很少,遇到的问题也难得有人说。
浪潮 NF5468M6 GPU服务器
CPU:2x6330(2G,28C/56T,42MB,Turbo,205W,3200),2x2400¥ 内存:32x64G DDR4 3200 RDIMM ECC,32x500¥ 硬盘:5x1.6TB SSD NVMe U.2 2.5寸 混合型,5x900¥ 阵列卡:Intel/英特尔 VROC KEY VROCPREMM0D U.2 NVME 阵列 RAID 0/1/5/10激活卡 高级版,1300¥ 网卡1:迈络思 MCX556A 100G 双口网卡,1500¥ 网卡2:X710双口万兆网卡(含模块),600¥ 显卡:8xNVIDIA Tesla L20 GDDR6 48GB PCIE 350W,8x25500¥ 电源:4x3000W 热插拔电源,双供电、双备份,4x1788¥
主板:NF5468M6,含税44000¥
这么一套单纯硬件(二手)含税合一起大概是32w左右就能拿下了,剩下的基本就是组装、调试、服务、售后的钱了
这一套显存是384g,内存是2048,如果要高速,可以部署 DeepSeek-R1-671B Q4;如果想要充分利用内存,其实可以2个GPU+512G内存来部署一个,这样能部署出来4个,甚至5个,不过速度嘛,肯定是要低一些;如果要满血版本,需要结合内存一起来用,差不多一半内存+一半显存就能跑起来了
nvidia-smi
https://www.nvidia.com/Download/index.aspx?lang=cn
官网找到对应驱动,然后下载
查看驱动状态
lspci | grep -i nvidia
查看内核模块,若无输出,说明模块未加载:
lsmod | grep nvidia
查找已经安装的模块
find /lib/modules/$(uname -r)/kernel/drivers -name nvidia*
重新生成模块
sudo apt-get install dkms
重新安装模块,这里驱动版本号要全部的,不能省略
sudo dkms install -m nvidia -v 570.124.06
由于是新机器,很多东西没有,所以要先把基础环境配置一下
apt install python3
apt install python3.12-venv
切换到一个新环境
python3 -m venv hgf
source hgf/bin/activate
安装huggingface,然后发现huggingface不能直接部署R1,尴尬了
pip install huggingface_hub
安装docker环境,本想用docker直接启动,发现docker镜像里根本没有满血版本的,有的aixblock那个还是偷你算力的,蒸馏版本倒是挺多的,可以直接拉取
apt install docker.io
安装CUDA,需要注意可以支持的版本,在nvidia-smi
中有显示支持的最高版本,我这里是12.8
wget https://developer.download.nvidia.com/compute/cuda/12.8.0/local_installers/cuda_12.8.0_570.86.10_linux.run
sudo sh cuda_12.8.0_570.86.10_linux.run
由于驱动之前安装过了,所以这里不勾选驱动安装
vi ~/.bashrc
把cuda加入到环境变量中
export PATH=$PATH:/usr/local/cuda-12.8/bin
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda-12.8/lib64
刷新环境
source ~/.bashrc
测试一下
nvcc -V
说明安装正常
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2025 NVIDIA Corporation
Built on Wed_Jan_15_19:20:09_PST_2025
Cuda compilation tools, release 12.8, V12.8.61
Build cuda_12.8.r12.8/compiler.35404655_0
安装ollama
curl -fsSL https://ollama.com/install.sh | sh
拉取模型
ollama run deepseek-r1:671b
671b q4大概有404GB,拉取非常费时,建议内部做一个模型库,需要的时候从内部拉,不然每次拉这个东西要好几个小时。
上面直接启动可能跑不起来,这个时候就需要修改一下默认的ollama的配置,用下面的方式来自定义配置
ollama show --modelfile deepseek-r1:671b | sed -e 's/^FROM.*/FROM deepseek-r1:671b/' > Modelfile
可以看到一个类似这样的文件
# Modelfile generated by "ollama show"
# To build a new Modelfile based on this, replace FROM with:
# FROM deepseek-r1:671b
FROM deepseek-r1:671b
TEMPLATE """<|User|><|Assistant|><|end▁of▁sentence|><|Assistant|>"""
PARAMETER stop <|begin▁of▁sentence|>
PARAMETER stop <|end▁of▁sentence|>
PARAMETER stop <|User|>
PARAMETER stop <|Assistant|>
# 这里是要自定义的
PARAMETER num_gpu 48
# 上下文token数量,过大会消耗非常多显存,慎重调整
PARAMETER num_ctx 131072,默认deepseek是2048
# 响应的token上限 无上限
PARAMETER num_predict -1
deepseek-r1的模型是分了61层,这里实测384GB的显存,不改上下文只能开起来48,更大就不行了
看起来好像没有用满,实际还要结合上下文的大小
如果显存不够用,会出现类似的错误,这种错就去调整num_gpu就可以了
Error: llama runner process has terminated: error loading model: unable to allocate CUDA1 buffer
llama_model_load_from_file_impl: failed to load model
修改完Modelfile以后,就可以创建一个新的模型配置
ollama create deepseek-r1-multi-gpu -f Modelfile
然后启动对应的模型
ollama run deepseek-r1-multi-gpu
正常的情况下就能看到已经可以响应了
root@hello:~# ollama run deepseek-r1-multi-gpu
>>> hello,who are you?
<think>
</think>
Hello! I'm DeepSeek-R1, an artificial intelligence assistant created by DeepSeek. I'm at your service and would be delighted to
assist you with any inquiries or tasks you may have.
>>> Send a
单独跑起来DeepSeek还不够,还得有个UI界面配合一起用
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
一开始进去以后就需要设置管理员账号密码,设置好了以后可能会发现没有模型,模型相关设置会报错
Open WebUI: Server Connection Error
这个主要是ollama本身只允许127.0.0.1的方式访问,而docker访问相当于是跨网络,所以拿不到模型
停止ollama服务
systemctl stop ollama
修改配置
vi /etc/systemd/system/ollama.service
主要是把OLLAMA_HOST改成任意网络,否则docker访问不到这个位置
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/root/hgf/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"
Environment="OLLAMA_HOST=0.0.0.0"
[Install]
WantedBy=default.target
重载配置文件
systemctl daemon-reload
systemctl start ollama
第一次回答,需要启动模型,可能延迟很久,实际第二次回答也不咋快,对比官方或者其他大模型的速度来说
可能还会遇到没有思考过程的问题
https://github.com/open-webui/open-webui/discussions/10685
参考这里,在设置-函数中添加这个函数,然后打开全局使用
class Filter:
detect_reasoning_content = {}
def stream(self, event: dict) -> dict:
event_id = event.get("id")
for choice in event.get("choices", []):
delta = choice.get("delta")
reasoning_value = delta.get("reasoning_content", "")
if reasoning_value:
if self.detect_reasoning_content.get(event_id, False):
delta["content"] = reasoning_value
else:
self.detect_reasoning_content[event_id] = True
delta["content"] = f"<think>\n{reasoning_value}"
elif self.detect_reasoning_content.get(event_id, False):
if event_id in self.detect_reasoning_content:
del self.detect_reasoning_content[event_id]
value = delta.get("content", "")
delta["content"] = f"</think>\n{value}"
return event
就可以看到展示的思考过程了,不过好像还是有问题
如果这里是空的,那说明这个模型是普通模式,没有开启思考,还要单独打开
看起来和OpenWebUI一起,token速率只有8-10左右,而且由于OpenWebUI的一些prompt或者默认的设置,经常会触发deepseek变傻,输出一段莫名其妙的官方回复。
目前除了8卡显存用完,还额外用了一些内存
可以通过ollama ps 查看占用情况
root@hello:~# ollama ps
NAME ID SIZE PROCESSOR UNTIL
deepseek-r1-multi-gpu:latest f1eca30714f3 432 GB 23%/77% CPU/GPU 4 seconds from now
参考另一个博主的测试方式,我也对应测了一下,加上verbose参数,就会显示输出的一些细节信息
ollama run deepseek-r1-multi-gpu --verbose
这个问题竟然正常显示think标签了,有内容了
简述拉格朗日乘子法在生物学中的应用场景。
测试结果
total duration: 2m16.440943797s
load duration: 19.878741ms
prompt eval count: 16 token(s)
prompt eval duration: 539.138037ms
prompt eval rate: 29.68 tokens/s
eval count: 1225 token(s)
eval duration: 2m8.612675382s
eval rate: 9.52 tokens/s
缩短上下文token,我试一下看能否全部加载到GPU,实际还是不行,单纯这个432G的大小就不够,至少得10张卡才行,还有额外的一些缓存或者文件消耗内存,目前这个配置Q4还是不太合适,可以考虑配置动态Q2.51的,那个只用200G就可以。
后续再测试一下动态Q2.51的模型速度,理论上应该比这个要快一些,现在用起来体验还是很差,虽然给一些小业务够用了。
https://zhuanlan.zhihu.com/p/23570780393
https://blog.csdn.net/takedachia/article/details/130375718
https://github.com/ollama/ollama/blob/main/docs/modelfile.md#parameter
https://zhuanlan.zhihu.com/p/30049062412
https://www.cnblogs.com/dechinphy/p/18728222/share-memory
https://mp.weixin.qq.com/s?__biz=MzIyNjM2MzQyNg==&mid=2247700014&idx=1&sn=7926c4c9af5ebba7b8d138c8832b32a1&scene=21#wechat_redirect
https://mp.weixin.qq.com/s?__biz=MzIyNjM2MzQyNg==&mid=2247700063&idx=1&sn=3aeb9031728ab8d4ba2f23bb5fe921fd&scene=21&poc_token=HIILAmij7cnPVOGGXNYV4cuIkl2PZLkoiy7020_z
https://blog.csdn.net/qq_40721108/article/details/145797337
2025-04-14 00:00:00
记录一些AI相关的流程或者是运行逻辑
Transform的机制
做一个新模型的时候,最好先建立好一个Benchmark,用来评估当前模型的性能,从而有一个准确的优化方向
微调的流程
微调的后期,要么是有一个专家模型负责评估,要么就是有一个RLHF的反馈环境,不断对模型进行微调,这样整个模型就在不断进化中,效果就能越来越好。
当这个累计到一定时间或者数据以后,就可以考虑直接全参数微调,变成一个新模型
某些应用既可以通过RAG实现,也能通过微调实现,RAG相当于是外挂一个知识给模型,比较灵活,但是RAG的实现细节也有很多东西要考虑。
本质上Diffusion就是你给一个图片,然后加高斯噪声,加n轮以后得到了一个结果,然后这个结果和n轮噪声就和原图有了一个对应关系。Denoise 就是将噪声图反推出来原图,这样的训练对越多,最后这个模型的还原能力越强,越接近原图本身,最核心的就是预测噪声。
简化以后的SD,大概就是这么三个东西
再拆解一下大概就是这样,以我目前的理解,其实就是将图片和文字形成一个映射关系,然后将这个内容在空间中离散化,这样数据量足够大以后,模型就能抽象出来文字和图像的对应关系了,再下一步,则是用户输入了一段文字,那么这段文字需要被离散成SD模型中可以识别的那部分文字向量,然后将他们组合到一起,通过反向去噪,也就是解码,就能得到目标图形了。
这个里面还有一个首要的问题要解决,就是为什么这个去噪能成功,他就能显示目标图像。因为在前面编码阶段,就是将文字向量和图像向量编码成了一种概率模型,如果是其他的东西可能就不行了,他在空间中的分布就是类似噪音式的,所以在后续的解码步骤中才能还原文字中图像的意图
就比如生成一个圆角三角形,本质上并不是死板的把三角和圆强行融合在一起,而是通过概率或者说抽象将三角的这个概念和圆形的曲边进行了概率融合
如果是用SD来一些图像处理流程,比如抠图、换背景、换装、换姿势等等,他们又有各自的流程,这个pipeline更适合ComfyUI来做节点管理,更偏向于现代的节点编程的概念
简化理解以后大概是这样,实际其中每个环节都值得深挖,有各种策略或者算法来做每个环节
https://www.bilibili.com/video/BV19f421q7EU
https://www.bilibili.com/video/BV1xih7ecEMb
https://www.bilibili.com/video/BV1ix4y1x7MR
2025-04-10 00:00:00
内存溢出,非常常见的错误,但是对于嵌入式软件而言稍微有点麻烦,因为出问题的时候不一定能被调试,能被追踪到,条件十分严苛。
借鉴前人的经验,做一次实践
这个方法比较笨,但是可以防止程序产生更严重的问题,比如在做内存copy或者调用指针的时候,都做一次内存范围检测,如果发现范围溢出了,那么此时就记录一下具体溢出的位置,触发函数等等。
这种方式可以维持一个长期稳定,但是溯源上还是差一些,同时也会影响效率,特别是一些高频操作或者是时间敏感的操作。
最简单的思路,在觉得可能会溢出的地方加上一个溢出标志,那么当溢出的时候就可以直接记录溢出点,然后就能追踪了
这样追踪到的是溢出点,但是如果是哪个地方溢出了,写到了别的内存的位置,这种办法就无法直接溯源,只能发现第一次出问题的点
对于堆来说,直接修改内存分配函数就行了,不影响到全局代码,但是对于栈来说就比较麻烦了,他可能是局部内发生的溢出,每个变量都要检测才行
#define CANARY_VALUE 0xA5
typedef struct {
int data;
uint8_t canary; // 哨兵字节
} protected_int_t;
// 初始化
#define PROTECTED_VAR_INIT(var, value) do { \
var.data = value; \
var.canary = CANARY_VALUE; \
} while(0)
// 检查
#define CHECK_CANARY(var) ((var).canary == CANARY_VALUE)
// 使用示例
protected_int_t my_counter;
PROTECTED_VAR_INIT(my_counter, 0);
// 检测溢出
if (!CHECK_CANARY(my_counter)) {
// 处理溢出情况
}
这种方式还是比较麻烦的,每个变量都要变成结构体,都需要被重新定义,改动量比较大
// 在链接器脚本中
.protected_data : {
_protected_data_start = .;
*(.protected_data)
_protected_data_end = .;
. = ALIGN(4);
_canaries_start = .;
. += (_protected_data_end - _protected_data_start) / 4; /* 每4字节一个哨兵 */
_canaries_end = .;
}
// 在代码中
#define PROTECTED_VAR __attribute__((section(".protected_data")))
PROTECTED_VAR int my_counter = 0;
这种通过定义一个新的加载方式,将某些特定变量存储到指定位置
然后扫描代码中对应的字节位置就行了,他需要给每个变量加一个宏,这样改动其实相对比较小。
只需要额外写一个代码扫描文件,然后识别变量,将这个加上去就行了,这样在不需要这个代码的时候就可以没有,需要检测溢出的时候,就可以使用这个特殊版本进行检测。检测完还能恢复到内存使用比较少的状态。
暂时没看到还有啥更成熟的办法,日后有了新发现再来补充
2025-04-02 00:00:00
研究一下如何把AI相关的AI设计产品融合到目前的艺术设计的工作流中,对比了一下当前模型生成相关的AI,发现区别还是挺大的
https://github.com/AUTOMATIC1111/stable-diffusion-webui
Stable Diffusion是一种图像模型,他背后是Stability AI
https://www.midjourney.com/
提示词,猫和老鼠中的老鼠,拿着一个烤串
# Core requirements
Jerry from Tom and Jerry cartoon, holding a barbecue skewer,
# Style details
cartoon style, classic animation, expressive face, cheerful expression,
# Scene elements
detailed food on skewer, grilled meat and vegetables,
# Quality control
high quality, clean lines, vibrant colors, well-lit scene
https://www.tripo3d.ai/
明显AI理解错了对象,选择了Tom,但是模型至少是正确的,能看的,他甚至想给这个动物女性化一个胸部出来,有点搞笑。
生成速度从左到右,最慢的右侧差不多是效果最好的了,先不说语义理解对不对,模型质量非常不错
tripo 3d 还有后处理流程,可以绑定骨骼,还是不错的
https://app.spline.design/home
Spline更像是一个浏览器级别的3D设计软件,可以做模型、动画、渲染,不过总体上看是比较轻量、低质量的,仅仅适合网页用,本身这种也只有近似的卡通风格才合适,其他的很出戏。
模型生成能力都是需要付费才行,看起来一般,就不深度研究了
https://www.sudo.ai/
支持图生成模型和文字生成模型
图生模型,好像一张有点困难,生成的也是个平面。
十分简单的模型生成,也会破面或者其他问题,图生模型,需要很好的图,提前扣好图,背景透明,整体模型的样子也比较全面好认
这个能力也太抽象了,可能中文提示词有问题,切换英文试一下
英文也不行,连一个基础的模型能看都做不到
https://3dfy.ai/
https://3dfy.tools/dashboard
3DFY的生成速度着实有点慢了,这样的话容错就很低,反复修改成本就很高
https://www.alpha3d.io/
Alpha3D,就非常抽象了,完全不知道在生成什么
额 更简单的提示词,也不行,这生成的非常抽象
https://www.meshy.ai/
Meshy也是主要支持三种生成,文生模型、图生模型、材质生成
Meshy的中文提示词是理解的最好的,至少知道我说的是什么了,模型生成以后就可以生成贴图了,他是将这两步拆开进行的
Meshy的成品,还是有一些奇怪的地方,比如手指头生成畸形,烤串也稍微有点问题
英文提示词达到的效果非常像tripo3D,感觉他们的素材库很接近
https://lumalabs.ai/genie?view=create
Genie是LumaAI的产品,Genie这个理解能力稍微有点挫,整个模型穿插就不说了,这个形态都不对劲,其次也不支持中文提示词
https://3d.hunyuan.tencent.com/
腾讯的混元3D
出乎意料,腾讯的3D模型生成竟然意外的好,虽然肯定上了一些风格,但是效果算是这里最好的了,速度也很快。
细节上比如手处理的就比Meshy好很多,可以自动骨骼绑定,还可以在生成以后做一定风格上的调整
https://shapen.com/playground
主要是通过图生模型
在生成模型时,对于这种2D画风,生成模型会带着轮廓线,这个轮廓线就造成了破面,这里应该是可以优化一下的
图片生成的相对来说很成熟了,各种模型都有图片生成
https://www.ui.cn/detail/586009.html
https://aitools.rdlab.tw/tool-list/21b370197938cf7625e0a5be955ed3ff