提起社保,我总感觉别人都一幅打算活很久的样子。
桂皮酱油炒焖鸡 Cinnamon and Soy Sauce Chicken
父母传授的菜谱,根据手边条件有所改进。
1 备料:
半只鸡斩件、去除多余脂肪、洗净,彻底抹干沥干水分(抹干后最好静置20-30分钟让其滴出剩余的血水,再抹干一次),4-5厘米长的桂皮轻轻拍碎成碎片或碎条。3瓣蒜切蒜片,1块拇指粗细的姜切姜片,2根葱取葱白和粗的葱绿切段,准备好3-4颗小冰糖、白砂糖、生抽酱油、老抽酱油。
2 炒鸡:
铁锅高热起锅,下油,冰糖、姜蒜片、桂皮下锅,大火爆炒到冰糖基本融化、姜蒜桂皮出香味,鸡块下锅,大火快炒,视乎灶的火力炒6-8分钟,到鸡肉收缩、释出大量水分和沫子,转中小火(30%-40%火)继续炒2-3分钟,中途不要下水也不要勾芡,让鸡块收缩、出水,待鸡块7-8成熟,水分和沫子不再增加而是开始蒸发,根据个人咸淡口味下4-6茶匙生抽酱油,如果感觉颜色不够可以再加1-2茶匙老抽,转小火(20%左右)继续快速翻炒2-3分钟,防止焦糊粘锅,让鸡块上色入味。
@jeteveux https://www.cizhixin.com/czx/
分享一个辞职信生成器(?
@board 请问大家谁有这方面经验,我在附近商场屋檐下捡到一个小燕子,太小了还不会飞,但是会叫了,然后他爸妈窝搭的太小了,他被他6…7个兄弟吧,一屁股挤下来了,还不会飞,那个房檐特高,少说4米,他也飞不回去,不知道咋办。他这种能吃什么啊,以后怎么生存啊。但是在里面叫扑扇翅膀都没问题。
生成式AI与低本底钢
以近期的一则新闻开篇。
《AI 生成的数据训练 AI 将导致模型退化乃至崩溃》
https://36kr.com/p/2303919815749129
『来自牛津、剑桥、帝国理工等机构研究人员发现,如果在训练时大量使用AI内容,会引发模型崩溃(model collapse),造成不可逆的缺陷。
也就是,随着时间推移,模型就会忘记真实基础数据部分。即使在几乎理想的长期学习状态下,这个情况也无法避免。』
2023年被誉为AI元年,ChatGPT 出现了,然后深深的改变了世界,这种改变是好是坏暂且不提,但有一个事实是确定的:2023年ChatGPT出现之后,人类世界流通的数据(不仅仅是互联网)中不可避免的混入了大量的AI生成数据。
换而言之,如果你想寻找没有被生成式AI的生成数据污染过的人类数据集,你只能找2023年ChatGPT出现之前的数据了。
这让我不禁想起了“低本底钢”。
『低本底钢(英語:Low-background steel),又稱低背景鋼、先原子钢(pre-atomic steel),是在1940年代和1950年代第一代原子弹爆炸前生产的钢材。由于在1945年,随着三位一体核试验、广岛、长崎核轰炸,以及冷战早期一系列核武器试验的进行,世界背景辐射量有明显升高。现代生产的钢铁由于普遍使用大气气体而被放射性同位素污染,低背景鋼的称呼由此而来。因为其没有受到过此类污染,这种钢材被使用在高精度放射性同位素检测设备上。 』
https://zh.wikipedia.org/wiki/%E4%BD%8E%E6%9C%AC%E5%BA%95%E9%92%A2
2023年ChatGPT出现之前的人类数据,从某种意义上讲便是一种不可再生的“低本底钢”。
但是模型并不是训练好了就一劳永逸了,可以永远使用了。
人类社会与文化随着时间的推移,不断的变化,ChatGPT 这样的大语言模型也必须不断训练才能紧跟时代。
正如36Kr文章标题中写的那样:GPT-5将死于GPT-4背刺?
但数据环境中混入难以区分的生成式AI数据毫无疑问给下一代AI的训练带来了一些问题。
写到这里,我突然有一些理解最近Reddit收紧第三方API的决定了。
如果无法找到高效准确地剔除AI生成数据的方法,我觉得是不太可能找到这样的方法的。
那么像 Reddit 这样有着大量活跃用户,每天产出大量人类数据的网站,对于下一代生成式AI的训练是至关重要,不可获缺的。
Reddit 自然也可以挟数据自重,向OpenAI那样的AI企业大笔收钱。
大概是疑邻窃斧,如今回过头看 OpenAI 呼吁加强AI监管的新闻顿时有了新感觉。
《OpenAI 呼吁设立监管超级智能的国际机构》
https://www.solidot.org/story?sid=75034
《OpenAI 创始人呼吁制定 AI 安全标准》
https://www.solidot.org/story?sid=74979
之前看到这样新闻时感想是OpenAI还是一个挻有社会责任感的公司,但如今我却在怀疑,OpenAI内部是不是早就知道使用AI生成数据训练AI会导致模型退化乃至崩溃,而OpenAI对这个问题也没有好的解决办法,因此便呼吁AI监管,呼吁限制AI使用。
也许不久的将来,会出现一个类似于核不扩散条约的AI不扩散条约。
最后再说说,可能对我这样的小站长的影响。
AI元年的到来,在我看来并不是一件好事。
从某种意义上说,可谓是给被Facebook这类封闭花园企整了个半死的开放互联网,又补上了重重的一刀。
对比中国大陆互联网与非中国大陆互联网,除了强制实名制,大力将用户向移动端赶之外,便是反爬特别严,公开可访问数据更少。
这样的现状与国内司法不健全,版权保护差,爬站做站的人特别多是人不开的。
但是生成式AI来了,爬数据一下子变成非常非常有利可图的事了。novel ai 突然就学会了二次元画风便是一个例证。
《AI 图像抓取工具引发争议》
https://www.solidot.org/story?sid=74799
『被用于在网站上抓取图像构建用于训练 AI 模型的数据集的下载工具引发了争议。网站抱怨抓取工具不遵守他们在 robots.txt 中列举的要求,而抓取工具 img2dataset 的作者 Romain Beaumont 则宣称所有人能在未来受益于 AI。他要求不想被抓取图像的网站主动在 HTTP 头文件中添加 X-Robots-Tag: noai 和 X-Robots-Tag: noindex 等标记,否则他的工具将会不管不顾的抓取图像。他说,一部分人不理解 AI 和开放 AI 的潜力,还因此决定与之对抗。』
为了这样的暴利,爬虫全网爬那是基本操作,至于什么 robots.txt 那是什么东西。
面对爬虫,各个站点会不会产生与中国大陆网站类似的反应,收紧访问权限。目前的互联网大企业会不会出于利润考量作出与 Reddit 相似的决定——收紧数据访问权限,高价卖API。
但不管怎样,这对于开放互联网都是一种深重的打击。
AI时代,数据就是黄金,尤其是真实人类产生的数据。你开放,你就被剥削,你就是最大的傻瓜。
【手机丢失自救手册:48 小时内你能做哪些挣扎?】其中一位负责任的警察语重心长地对我们说,根据他的职业经验,能够基本锁定手机与司机有关,但司机或许是职业惯犯,因此知道在这种情况下只要矢口否认,便没有任何的办法。
https://dig.chouti.com/link/38932195
@board 大家有没有那种……明明不是办公用但可以在公司填报办公用品采购时混进采购名单的东西(?)请大家助力我司被薅羊毛直到倒闭,谢谢! 
在中国数字时代上看到一个男的毕业六年换了19分工作的故事,很巧之前,恰好看到一个女性毕业五年换了20份工作的故事,怎么说呢?在那个男的故事中,我看到他软弱欺骗随波逐流,在那个女性故事中,我看到她反抗不公平,反抗性骚扰,一再被迫离开。然后我看到他的声音被收录被听到,而她的声音发在豆瓣上,而被别的女性转到象上。
历史就是这样造就的。
https://qoto.org/@schreiben/110410783310268251
History, he said:
https://chinadigitaltimes.net/chinese/696437.html
看到个贼长的视频标题是说任天堂怎么不尊重最忠实的粉丝,看了三分钟,我:okok,东方迪士尼got it. 确实没看到过什么任天堂游戏相关的独立游戏,就塞尔达和metroid还有宝可梦这么大的IP,独立游戏创作都是销声匿迹,事实上确实是被任天堂重拳出击然后销声匿迹。愿意做个独立游戏跟fan art还是挺不一样的,任天堂属实不配啊!评论里有个老哥说他从小就很喜欢画宝可梦,有很多很好的设计idea!他妈写邮件问任天堂有没有地方可以投稿这些创作,任天堂回复请你们立刻停止这种行为!!!任天堂还和油管合作过一个创作者项目,做任天堂游戏内容的作者想盈利,就要申请加入这个项目,任天堂批准以后作者需要把每个视频发给任天堂审核,任天堂还要抽成。最绝的是,最后这个项目不做了,任天堂把所有相关的视频都下了,意思是这些创作是他们的资产,还copyright出击了油管上其他视频 