title
stringlengths
5
75
author
stringlengths
0
48
fromurl
stringlengths
0
185
summary
stringlengths
4
460
pic
stringlengths
32
70
largepic
stringlengths
0
69
titlepic
bool
2 classes
thumb
bool
2 classes
islctt
bool
2 classes
selector
stringclasses
14 values
translator
stringlengths
0
45
reviewer
stringclasses
27 values
editorchoice
bool
2 classes
tags
list
category
stringclasses
20 values
count
dict
comments_data
list
related
list
excerpt
stringlengths
4
460
date
timestamp[s]
updated
timestamp[s]
id
int64
1
16.6k
permalink
stringlengths
17
21
content
stringlengths
116
82.2k
即将到来的 Debian 10 Buster 发布版的新特点
Shirish
https://itsfoss.com/new-features-coming-to-debian-10-buster-release/
Debian 10 Buster 即将发布。第一个发布候选版已经发布,我们预期可以在几周内见到待最终版。
/data/attachment/album/201904/28/121114bkrb0kv9kos4rsn4.png.thumb.jpg
/data/attachment/album/201904/28/121114bkrb0kv9kos4rsn4.png
true
false
true
lujun9972
warmfrog
wxy
false
[ "Debian" ]
新闻
{ "viewnum": 14444, "commentnum": 10, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[ { "postip": "61.131.203.105", "message": "我已经迫不及待了", "username": "来自江西南昌的 Firefox 66.0|Windows 10 用户", "date": "2019-04-28T14:40:41" }, { "postip": "61.131.203.105", "message": "我已经迫不及待了", "username": "来自江西南昌的 Firefox 66.0|Windows 10 用户", "date": "2019-04-28T14:40:47" }, { "postip": "27.223.84.74", "message": "Testing 用户路过", "username": "绿色圣光 [Firefox 60.0|GNU/Linux]", "date": "2019-04-30T11:34:45" }, { "postip": "123.10.189.58", "message": "期待。", "username": "来自河南商丘的 Firefox 60.0|GNU/Linux 用户", "date": "2019-04-30T21:51:26" }, { "postip": "221.8.23.8", "message": "有点期待!!!", "username": "来自吉林长春的 Chrome 74.0|Windows 10 用户", "date": "2019-05-14T22:22:49" }, { "postip": "221.8.23.8", "message": "有点期待!!!", "username": "来自吉林长春的 Chrome 74.0|Windows 10 用户", "date": "2019-05-14T22:22:50" }, { "postip": "221.8.23.8", "message": "有点期待!!!", "username": "来自吉林长春的 Chrome 74.0|Windows 10 用户", "date": "2019-05-14T22:22:54" }, { "postip": "60.28.138.138", "message": "我7月装系统", "username": "来自天津的 Firefox 66.0|GNU/Linux 用户", "date": "2019-05-22T13:08:13" }, { "postip": "117.100.152.246", "message": "就等着发布装机", "username": "来自117.100.152.246的 Chrome 74.0|Windows 7 用户", "date": "2019-06-05T20:58:58" }, { "postip": "117.100.152.246", "message": "就等着发布装机", "username": "来自117.100.152.246的 Chrome 74.0|Windows 7 用户", "date": "2019-06-05T20:59:03" } ]
[]
Debian 10 Buster 即将发布。第一个发布候选版已经发布,我们预期可以在几周内见到待最终版。
2019-04-28T12:11:31
2019-04-28T12:11:31
10,790
/article-10790-1.html
![](/data/attachment/album/201904/28/121114bkrb0kv9kos4rsn4.png) Debian 10 Buster 即将发布。第一个发布候选版已经发布,我们预期可以在几周内见到待最终版。 如果你期待对这个新的主要发布版本,让我告诉你里面有什么。 ### Debian 10 Buster 发布计划 [Debian 10 Buster](https://wiki.debian.org/DebianBuster) 的发布日期并没有确定。为什么这样呢?不像其他分发版,[Debian](https://www.debian.org/) 并不基于时间发布。相反地它主要关注于修复<ruby> 发布版重要 Bug <rt> release-critical bug </rt></ruby>。发布版重要 Bug 要么是严重的安全问题([CVE](https://en.wikipedia.org/wiki/Common_Vulnerabilities_and_Exposures)),要么是一些其他阻止 Debian 发布的严重问题。 Debian 在它的软件归档中分为三个部分,叫做 Main、contrib 和 non-free。在这三者之中,Debian 开发者和发布管理者最关心的包组成了该分发版的基石。Main 是像石头一样稳定的。因此他们要确保那里没有主要的功能或者安全问题。他们同样给予了不同的优先级,例如 Essential、Required、Important、Standard、Optional 和 Extra。更多关于此方面的知识参考后续的 Debian 文章。 这是必要的,因为 Debian 在很多环境中被用作服务器,人们已经变得依赖 Debian。他们同样看重升级周期是否有破环,因此他们寻找人们来测试,来查看当升级的时候是否有破坏并通知 Debian 有这样的问题。 这种提交方式带来的稳定性[是我喜欢 Debian 的众多原因之一](https://itsfoss.com/reasons-why-i-love-debian/)。 ### Debian 10 Buster 版本的新内容 这里是即将到来的 Debian 主要发布版的一些视觉上和内部的改变。 #### 新的主题和壁纸 Buster 的 Debian 主题被称为 [FuturePrototype](https://wiki.debian.org/DebianArt/Themes/futurePrototype) 并且看起来如下图: ![Debian Buster FuturePrototype Theme](/data/attachment/album/201904/28/121133zvo9ow36fmx8oa26.png) #### 1、GNOME 桌面 3.30 Debian Stretch 版中的 GNOME 桌面在 Buster 中从 1.3.22 升级到了 1.3.30。在 GNOME 桌面发布版中新包含的一些包是 gnome-todo、tracker 替代了 tracker-gui、gstreamer1.0-packagekit 的依赖,因此可以通过自动地安装编码解码器来做播放电影之类的事。对于所有包来说一个大的改变是从 libgtk2+ 到 libgtk3+。 #### 2、Linux 内核 4.19.0-4 Debian 使用 LTS 内核版本,因此你可以期待更好的硬件支持和长达 5 年的维护和支持周期。我们已经从内核 4.9.0.3 到 4.19.0-4。 ``` $ uname -r 4.19.0-4-amd64 ``` #### 3、OpenJDK 11.0 Debian 在很长时间里都是 OpenJDK 8.0。现在在 Debian Buster 里我们已经升级为 OpenJDK 11.0,并且会有一个团队维护新的版本。 #### 4、默认启用 AppArmor 在 Debian Buster 中是默认启用 [AppArmor](https://wiki.debian.org/AppArmor) 的。这是一个好事,谨慎是系统管理员必须采取的正确策略。这仅仅是第一步,并且可能需要修复很多对用户觉得有用的脚本。 #### 5、Nodejs 10.15.2 在很长一段时间里 Debian 在仓库中都只有 Nodejs 4.8。在这个周期里 Debian 已经移到 Nodejs 10.15.2。事实上,Debian Buster 有很多 javascript 库例如 yarnpkg (一个 nmp 的替代品)等等。 当然,你可以从该项目仓库[在 Debian 中安装最新的 Nodejs](https://itsfoss.com/install-nodejs-ubuntu/),但是从 Debian 仓库中看到更新的版本是很棒的。 #### 6、NFtables 替代了 iptables Debian Buster 提供了 nftables 来完整地替代了 iptables,因为它有更好、更简单的语法,更好的支持双栈 ipv4/v6 防火墙等等。 #### 7、支持更多的 ARM 64 和 ARMHF 的单板机。 Debian 已经支持一些常见的新的单板机,其中最新的包括 pine64\_plus、ARM64 的 pinebook、Firefly-RK3288、ARMHF 64 的 u-boot-rockchip 以及 Odroid HC1/HC2 板、SolidRun Cubox-i 双核/四核(1.5som)和 SolidRun Cubox-i 双核/四核(1.5som+emmc)板、Cubietruckplus 等。同样支持 Rock 64、Banana Pi M2 Berry、Pine A64 LTS Board、Olimex A64 Teres-1 与 Rapberry Pi 1、Zero 和 Pi 3。对于 RISC-V 系统同样支持开箱即用。 #### 8、Python 2 已死,Python 3 长存 在 2020 年 1 月 1 日,Python 2 将被 python.org 废弃。在 Debian 将所有的软件包从 Python 2.7 移到 Python 3 以后,Python 2.7 将从软件仓库中移除。这可能发生在 Buster 发布版或者将来的某个发布版,这是肯定要来临的。因此 Python 开发者被鼓励移植他们的代码库来兼容 Python 3。在写本文的时候,在 Debian Buster 中同时支持 python2 和 pythone3。 #### 9、Mailman 3 在 Debian 中终于可以使用 Mailman3 了。同时 [Mailman](https://www.list.org/) 已经被细分成为组件。要安装整个软件栈,可以安装 mailman3-full 来获取所有组件。 #### 10、任意已有的 Postgresql 数据库将需要重新索引 由于 glibc 本地数据的更新,放入文本索引中的信息排序的方式将会改变,因为重新索引是有益的,这样在将来就不会有数据破坏发生。 #### 11、默认 Bash 5.0 你可能已经了解了 [Bash 5.0 的新特点](https://itsfoss.com/bash-5-release/),在 Debian 中已经是该版本了。 #### 12、Debian 实现 /usr/merge 我们已经分享过一个优秀的 freedesktop [读物](https://www.freedesktop.org/wiki/Software/systemd/TheCaseForTheUsrMerge/),介绍了 `/usr/merge` 带来了什么。有一些事项需要注意。当 Debian 想要整个过渡时,可能由于未预见的情况,一些二进制文件可能并没有做这些改变。需要指出的一点是,`/var` 和 `/etc` 不会被触及,因此使用容器或者云技术的不需要考虑太多 :)。 #### 13、支持安全启动 在 Buster RC1 中,Debian 现在支持<ruby> 安全启动 <rt> secure-boot </rt></ruby>。这意味着打开了安全启动设置的机器应该能够轻松安装 Debian。不再需要禁止或者处理安全启动的事 :) #### 14、Debian-Live 镜像的 Calameres Live-installer 对于 Debian Buster 的 Live 版,Debian 引入了 [Calameres 安装器](https://calamares.io/about/)来替代老的 Debian-installer。Debian-installer 比 Calameres 功能更多,但对于初学者,Calameres 相对于 Debian-installer 提供了另外一种全新的安装方式。安装过程的截图: ![Calamares Partitioning Stage](/data/attachment/album/201904/28/121135l4bz6p66jt666lpq.jpg) 如图所见,在 Calamares 下安装 Debian 相当简单,只要经历 5 个步骤你就能在你的机器上安装 Debian。 ### 下载 Debian 10 Live 镜像 (只用于测试) 现在还不要将它用于生产机器。可以在测试机上尝试或者一个虚拟机。 你可以从 Debian Live [目录](https://cdimage.debian.org/cdimage/weekly-live-builds/)获取 Debian 64 位和 32 位的镜像。如果你想要 64 位的就进入 `64-bit` 目录,如果你想要 32 位的,就进入 `32-bit` 目录。 * [下载 Debian 10 Buster Live Images](https://cdimage.debian.org/cdimage/weekly-live-builds/) 如果你从已存在的稳定版升级并且出现了一些问题,查看它是否在预安装的[升级报告](https://bugs.debian.org/cgi-bin/pkgreport.cgi?pkg=upgrade-reports;dist=unstable)中提及了,使用 [reportbug](https://itsfoss.com/bug-report-debian/) 报告你看到的问题。如果 bug 没有被报告,那么请尽可能地报告和分享更多地信息。 ### 总结 当上千个包被升级时,看起来不可能一一列出。我已经列出了一些你在 Debian Buster 可以找到的一些主要的改变。你怎么看呢? --- via: <https://itsfoss.com/new-features-coming-to-debian-10-buster-release/> 作者:[Shirish](https://itsfoss.com/author/shirish/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[warmfrog](https://github.com/warmfrog) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
用来记笔记的三个 Emacs 模式
Scott Nesbitt
https://opensource.com/article/18/7/emacs-modes-note-taking
借助这些 Emacs 模式轻松记录信息。
/data/attachment/album/201904/29/102405qsfg3yv3tfvbbgtc.jpg.thumb.jpg
/data/attachment/album/201904/29/102405qsfg3yv3tfvbbgtc.jpg
true
false
true
lujun9972
lujun9972
wxy
false
[ "Emacs", "笔记" ]
桌面应用
{ "viewnum": 6726, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
借助这些 Emacs 模式轻松记录信息。
2019-04-29T10:24:16
2019-04-29T10:24:16
10,792
/article-10792-1.html
> > 借助这些 Emacs 模式轻松记录信息。 > > > ![](/data/attachment/album/201904/29/102405qsfg3yv3tfvbbgtc.jpg) 不管你从事哪种工作,你都无可避免地需要记笔记。而且可能还不是一点点。现在这年头,大家都开始以数字的形式来记笔记了。 开源软件爱好者有多种途径来以电子的方式记下他们的创意、想法和研究过程。你可以使用 [网页工具](https://opensource.com/alternatives/evernote),可以使用 [桌面应用](https://opensource.com/life/16/9/4-desktop-note-taking-applications),或者你也可以 [使用命令行工具](https://opensource.com/article/18/3/command-line-note-taking-applications)。 如果你使用 [Emacs](https://www.gnu.org/software/emacs/)(伪装成文本编辑器的强力操作系统),有多个<ruby> 模式 <rt> mode </rt></ruby>可以帮你有效地记录笔记。我们这里列举三个例子。 ### Deft ![](/data/attachment/album/201904/29/102422wcugyhvpykc44ts4.png) 在少数情况下,我只能使用 Mac时,有一个工具是我不能缺少的:[nvALT](http://brettterpstra.com/projects/nvalt/) 笔记应用。[Deft 模式](https://jblevins.org/projects/deft/) 为 Emacs 带来了 nvALT 式的体验。 Deft 将你的笔记以文本文件的形式存储在电脑中的某个文件夹中。当你进入 Deft 模式,你会看到一系列的笔记及其摘要。这些摘要其实就是文本文件的第一行。若第一行是 Markdown、LaTeX,甚至 Emacs Org 模式的格式的话,Deft 会忽略掉这些格式而只显示文本内容。 要打开笔记,只需要向下滚动到该笔记的位置然后按下回车即可。然而 Deft 不仅仅只是这样。根据 Deft 开发者 Jason Blevins 的说法,它的*主要操作是搜索和过滤*。Deft 的实现方式简单而有效。输入关键字然后 Deft 会只显示标题中包含关键字的笔记。这在你要从大量笔记中找到某条笔记时非常有用。 ### Org 模式 ![](/data/attachment/album/201904/29/102423cuzxdmtxiuyy2tjy.png) 如果本文没有包含 [Org 模式](https://orgmode.org/) 的话,那么我可能会被人所诟病。为什么?它可以说是 Emacs 中最灵活、使用最广泛的记录笔记的方式了。以正确的方式使用它,Org 模式可以极大地增强记笔记的能力。 Org 模式的主要优势在于它组织笔记的方式。在 Org 模式中,一个笔记文件会被组织成一个巨大的大纲。每个章节就是大纲里的一个节点,你可以对它进行展开和折叠。这些章节又可以有子章节,这些子章节也可以展开和折叠。这不仅使你一次只关注于某个章节,而且可以让你浏览整个大纲。 你可以在多个章节之间 [进行互联](https://orgmode.org/org.html#Hyperlinks),无需通过剪切和复制就能快速移动章节,以及 [附加文件](https://orgmode.org/org.html#Attachments) 到笔记中。Org 模式支持带格式的字符和表格。如果你需要转换笔记到其他格式,Org 模式也有大量的[导出选项](https://orgmode.org/org.html#Exporting)。 ### Howm ![](/data/attachment/album/201904/29/102425lkm14gtxjk5vk8te.png) 当我使用 Emacs 已经成为一种习惯时,[howm](https://howm.osdn.jp/) 马上就成为我严重依赖的模式之一了。虽然我特别喜欢使用 Org 模式,但 howm 依然占有一席之地。 Howm 就好像是一个小型维基。你可以创建笔记和任务列表,还能在它们之间创建链接。通过输入或点击某个链接,你可以在笔记之间跳转。如果你需要,还可以使用关键字为笔记添加标签。不仅如此,你可以对笔记进行搜索、排序和合并。 Howm 不是最漂亮的 Emacs 模式,它的用户体验也不是最佳。它需要你花一点时间来适应它,而一旦你适应了它,记录和查找笔记就是轻而易举的事情了。 --- via: <https://opensource.com/article/18/7/emacs-modes-note-taking> 作者:[Scott Nesbitt](https://opensource.com/users/scottnesbitt) 选题:[lujun9972](https://github.com/lujun9972) 译者:[lujun9972](https://github.com/lujun9972) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
小白观察:Google 开始清除百度旗下公司开发的 46 款应用程序
小白
此前一项调查显示,DO Global 曾对用户进行广告欺诈,并向用户隐瞒了应用程序的所有权细节。
/data/attachment/album/201904/29/103736zfzydrasg9wtrmv2.jpg.thumb.jpg
/data/attachment/album/201904/29/103736zfzydrasg9wtrmv2.jpg
true
false
false
false
[ "百度" ]
新闻
{ "viewnum": 3740, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
此前一项调查显示,DO Global 曾对用户进行广告欺诈,并向用户隐瞒了应用程序的所有权细节。
2019-04-29T10:38:09
2019-04-29T10:38:09
10,793
/article-10793-1.html
![](/data/attachment/album/201904/29/103736zfzydrasg9wtrmv2.jpg) ### Big News 根据 BuzzFeed 报道, Google 开始清除 Play Store 中由 DO Global 公司开发的应用程序。此前一项调查显示,DO Global 曾对用户进行广告欺诈,并向用户隐瞒了应用程序的所有权细节。 Do Global 是一家由百度持股(约 34%)的公司,它是目前在谷歌 Play 商店上线应用程序的最大开发者之一。目前 Do Global 公司官网已经关闭所有功能,仅显示一个 Statement 声明。[【BuzzFeed】](https://www.buzzfeednews.com/article/craigsilverman/google-play-store-ad-fraud-du-group-baidu) ![](/data/attachment/album/201904/19/123826jwwhua7ggqzgxufz.png) > > 总是想着在框架内做一些超出规范的事情,来赚取利润,这似乎成为了百度、百度系的标志了。 > > > ### Quick News #### MIT 许可证的神秘历史 红帽工程师 Gordon Haff 在 OpenSource 上发布了一篇文章,说明了为什么 MIT 协议没有办法很容易的说明何时创建的。[【OpenSource】](https://opensource.com/article/19/4/history-mit-license) #### Google 的新项目 Project Euphonia,可能会让手机替人说话。 今年的 Google I/O 大会上,Google 将会推出一个新的帮助残障人士的服务 Project Euphonia,这个项目将用于为语言障碍者提供声音的支持。[【9to5Google】](https://9to5google.com/2019/04/26/google-project-euphonia-io-19-speech-impaired/) #### 开源面临的 Working For Free 的问题 自由软件工程师,前红帽工程师,现 Tidelift 联合创始人 Havoc Pennington 说,我们需要放弃开源只是慈善事业的观念,并给出了一些如何让开源项目更好的建议。 
[【Tidelift】](https://blog.tidelift.com/open-source-has-a-working-for-free-problem)
对话鲁直:蚂蚁金服中间件的开源头羊
老王
谈话中,鲁直反问的“你为什么不开源?”这句话让我印象深刻。
/data/attachment/album/201904/29/122828t9nn39yrrez93kh3.jpg.thumb.jpg
/data/attachment/album/201904/29/122828t9nn39yrrez93kh3.jpg
true
false
false
true
[ "蚂蚁金服", "穿山甲专访" ]
穿山甲专访
{ "viewnum": 11004, "commentnum": 1, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[ { "postip": "171.82.133.162", "message": "不如做一个闭源千牛Linux客户端有价值。", "username": "来自湖北武汉的 Chrome Mobile 57.0|Android 8.1 用户", "date": "2019-05-01T07:31:29" } ]
[ { "raid": 10141, "displayorder": 0 }, { "raid": 10548, "displayorder": 0 }, { "raid": 10693, "displayorder": 2 } ]
谈话中,鲁直反问的“你为什么不开源?”这句话让我印象深刻。
2019-04-29T11:38:00
2019-04-29T11:38:00
10,794
/article-10794-1.html
![](/data/attachment/album/201904/29/122828t9nn39yrrez93kh3.jpg) 二月初春,在西子湖畔的细雨中,我拜访了蚂蚁金服中间件团队,和 SOFA 技术负责人鲁直做了一次深入交谈,更妙的是,鲁直也是负责 SOFA 开源事务推进的人,而这样一个切实践行开放核心模式的开源项目,也正是我非常感兴趣的。 两个技术人的谈话,自然是朴实而直白的,话题主要围绕着 SOFA 和开源主题展开,希望也能一样引起同是技术人的你的共鸣。 ![](/data/attachment/album/201904/29/114834oq8iq804ii4v4xs3.jpg) > > **人物介绍** > > > 受访者:鲁直,蚂蚁金服 SOFA 开源负责人。 > > > 采访者:老王,开源布道人,有 20 年互联网从业经历的技术老兵。 > > > 虽然我和鲁直在微信上已经联系很久了,但这还是第一次见面。交谈中,我了解到鲁直是 2009 年加入阿里巴巴工作,已经有十年了。刚开始是在 1688.COM 做业务系统,对中间件技术非常感兴趣,也会经常研究各种中间件的实现和功能。后来在 2013年时,为了更深入地学习研究中间件框架,转到了蚂蚁金服中间件团队,从那个时候开始就一直在做 SOFA。 目前鲁直在 SOFA 的团队主要负责的工作包括几个部分。其中一个主要部分就是 SOFA 开源相关的工作。SOFA 的产品体系非常广,包括已经对外开源的部分、内部整个微服务体系,以及 SOFA 框架等等——而这些开源相关的工作主要是由鲁直负责推动的。 当然,作为技术负责人,鲁直既要带技术团队也要做技术工作。谈及这一点,鲁直说: “我觉得做技术管理,跟普通的管理不太一样,因为**技术管理最重要的一个点是除了管理之外,还要保持一定的技术判断力和敏锐度**。对一些新技术,包括团队中遇到一些重大的技术问题,你都要有一些方向性的判断。虽然最后不一定是你具体解决的,但是在整个团队的技术攻坚和技术选型上,要一起确立方向。” 我以前也做过十余年的技术管理,我很能够感受这种情况,重大问题技术负责人更要迎难而上。 ### SOFA 5 落子 Service Mesh 就我了解的情况,现在 SOFA 已经发展到了 SOFA5 了。在 SOFA4 阶段,主要的任务是将开源体系捋清楚了,然后开始按步骤地开源;到现在发展到了 SOFA5。我想知道从 SOFA4 发展到 SOFA5,是什么让蚂蚁金服中间件团队判断 SOFA4 的阶段性目标已经达成,可以迈进到新的 SOFA5 阶段了呢? “从整个业界趋势上来讲,SOFA4 的架构相对来说还是偏传统一些,更多是对我们之前的技术框架的整理和梳理。在这个阶段,SOFA 的代码经过了非常多的优化和重构,才达到了对外开源的要求,从而 SOFA 走上了开源核心的模式,逐步分阶段的将各个部分进行了开源。”鲁直讲到,“但是,从我们对业界的整体判断上来说,未来无疑是云的时代,所以说要考虑怎么让所有的业务系统能够提供云的能力,比如说 Serverless。” 接着这个话题,鲁直讲了他对云计算的理解:“一方面云计算肯定要为整个业务的发展提供更加方便的基础资源,可以不用去关心底层的基础设施。Serverless 字面的意思就是说‘无服务器’——我不用关心服务器怎么来的,不用关心基础设施,只要关心业务代码就可以了。那反过来对于云服务商来说,经过了这一层抽象,其资源利用率会更高,可以有更多的利润空间,这是一个双赢的局面。**对于用户来讲,这种好处是实实在在的,可以更少关注基础设施,只关心代码就可以了。**” > > “我们希望在 SOFA5 的方向上,在这个新的迭代中,去让业务——包括让未来我们开源出来各种功能、各样服务模式——都更多地去关心自己的业务代码,而不用再过多地关心基础设施。”鲁直说。 > > > 在 SOFA5 中,一个重要的方向就是 **Service Mesh 这个方向,这将是 SOFA5 中非常重要的特性**。鲁直强调了其对 Service Mesh 技术的看好:“我认为 Service Mesh 是迈向未来往前走的非常关键的一步,让业务不用再关心基础设施。通过 Service Mesh,我们可以将很多技术能力直接放到基础设施里面,而业务可以不用感知到这一层。原来可能需要花几个小时或者更多的时间解决的基础设施问题,现在可以通过 Service Mesh 解决掉。” “目前我们我们已经在生产环境中应用了 Service Mesh。我们在这方面有非常大的决心,我们希望能够在今年,在更大的范围中去落地 Service Mesh。当前这个阶段更聚焦在这种技术的内部落地上,希望用好了,再给社区做更多的贡献。” > > *Service Mesh 这个词最早是由开发 Linkerd 的 Buoyant 公司于 2016 年提出的,随着 Linkerd 的传入,Service Mesh 也进入国内技术社区的视野。Service Mesh 也被翻译为“服务网格”。Linkerd 则是业界第一个 Service Mesh。* > > > *Service Mesh 是一个基础设施层,用于处理服务间通信,负责实现请求的可靠传递。在实践中,服务网格通常实现为轻量级网络代理,通常与应用程序部署在一起,但是对应用程序透明。* > > > *Service Mesh 的部署模型,有两种情况:* > > > * *对于一个简单请求,作为请求发起者的客户端应用实例,会首先用简单方式将请求发送到本地的 Service Mesh 实例。这是两个独立进程,它们之间是远程调用。Service Mesh 会完成完整的服务间调用流程,如服务发现负载均衡,最后将请求发送给目标服务。这就是 Sidecar,它在原有的客户端和服务端之间加多了一个代理。* > * *多个服务调用的情况,Service Mesh 出现在所有的服务的下面,这一层被称之为服务间通讯专用基础设施层。Service Mesh 会接管整个网络,把所有的请求在服务之间做转发。在这种情况下,上面的服务不再负责传递请求的具体逻辑,只负责完成业务处理。服务间通讯的环节就从应用里面剥离出来,呈现出一个抽象层。* > > > *如果有大量的服务,Sidecar 之间的连接就会形成一个网络,这个就是服务网格名字的由来。* > > > “我们将以 Service Mesh 为跳板再往前走。”鲁直表示,“**Serverless 更多的还是应该聚焦在其字面本身,其含义就是‘无服务器’,后面的技术都是为了让无服务器承载具体的业务。**” Serverless 这个概念虽然提出来已经有几年了,目前 AWS 在 Serverless 和 FaaS 方面处于比较前沿的位置,但是在国内,Serverless、FaaS 这些技术的发展还是相对比较滞后。 鲁直指出,“我觉得 Serverless 想要成功,还是要从覆盖业务的整个广度上打开,否则可能还是停留在 FaaS 上,那场景就比较受限。” > > Service Mesh 将是微服务的下一个时代,关于它还在持续进行理论研究和实践探索。 > > > 鲁直说:“坦白来讲,我觉得 istio 的理念非常好,但是在整个工程设计上,如果放到蚂蚁金服这样体量较大的环境里面,可能跑起来还需要做一些工作。我们希望今年 Service Mesh 在蚂蚁金服有了更大规模落地之后,可以把我们在 Service Mesh 方面的一些实践经验用到产品环境的工程中去实践,然后贡献出去。目前更多的一些工作,是将整个体系上进一步完善,铺到更多业务上,然后将这些经验反哺到整个 Service Mesh 的设计上,让它走的更远。” 也就是说,蚂蚁金服在 Service Mesh 上跟 istio 的技术路线是一致的,但是会从工程的角度更多地推动它的发展。 > > 我们希望能够在我们进行了生产验证之后,再慎重地推送给开源社区。这也是蚂蚁做开源贡献的一贯理念。 > > > 鲁直:“我们希望能够在我们进行了生产验证之后,再慎重地推送给开源社区。这也是蚂蚁做开源贡献的一贯理念——我们希望一个东西经过了内部一段时间的成熟之后,再去开源。经过了大规模的内部验证之后,它的稳定性上有了一定的保障,就贡献给外部社区使用,再去拓展更多一些使用场景,包括完善和解决一些之前没有遇到一些问题。” ### 合力 Seata 分布式事务框架 2007 开始,蚂蚁金服自主研发了分布式事务中间件 XTS,在内部广泛应用并解决金融核心场景下的跨数据库、跨服务数据一致性问题,最终以 DTX 的云产品化展现并对外开放。而与此同时,阿里巴巴中间件团队发布 TXC,为集团内应用提供分布式事务服务,经过多年的技术沉淀,于 2016 年产品化改造为 GTS,通过阿里云解决方案在众多外部客户中落地实施。 2019 年 1 月,基于技术积累,阿里巴巴中间件团队发起了开源项目 Fescar,蚂蚁金服也开源了自己的分布式事务框架,并与 Fescar 合并一起共建分布式事务解决方案。这个发展既在情理之中,也在意料之外,我确实好奇这期间发生了什么,是如何和 SOFA 中间件团队的发展结合的,他们下一步会有什么计划? 鲁直说:“分布式事务是蚂蚁金服在 2007 年做的创新,是基于 TCC 原理,我们在内部实现了这个模式。TCC 理论相对还是比较简单的,但是它要落地,需要花费比较长的工程实现上的打磨才行。分布式事务这个技术在蚂蚁金服已经走过了 12 年的时间了。在蚂蚁金服最核心一些业务上,包括支付、交易、账务等等系统都在使用这套分布式事务框架解决和孵化的。” 在分布式事务这一块领域上,在业界来看目前相对来说比较空白,还没有非常好的分布式事务框架。说起来合并的初衷,鲁直表示,“**既然阿里巴巴和蚂蚁金服都在这个方向做了一些开源的工作,所以我们把这两个部分的努力结合起来,取长补短,以适用于更多的分布式事务业务场景**,蚂蚁金服加入 Seata 社区共建,在 Seata 0.4.0 版本中加入了 TCC 模式,为大家提供一个更加宽泛的分布式事务的解决方案。” 具体来说,“阿里巴巴的 Seata 提供是 AT 模式,对业务来说,不用有太多感知,但是它覆盖的场景有限,如果可以接受这样的情况,用 AT 模式更好。而蚂蚁金服因为有更强的金融方面的要求,就需要采用 TCC 模式,业务接入成本更高,但是它能做到非常好的分布式执行。未来还会提供像 XA 这样的模式,去适应更宽泛业务场景,这在这一块上,蚂蚁金服和阿里巴巴会结合在一起提供一个融合的框架。” Seata 为解决微服务架构下的分布式事务问题交出了一份与众不同的答卷。而 Seata 的愿景是让分布式事务的使用像本地事务的使用一样简单和高效,希望可以让 Seata 适用于所有的分布式事务场景。 ### 如何做开源 作为开源核心模式的项目,我希望了解蚂蚁金服中间件的开源一般会做哪些工作,是否有比较完善的流程和规则? “首先,最基础的肯定是代码,并提供对应的示例,然后我们会提供贡献者指南这样的指引文档,因为本质上我们希望打造成一个开源社区,社区的参与度对我们来说是非常重要的东西,有人会上来提 issue,也有人来解答,有人提功能需求,有人提 PR 等等”,鲁直说。 Linux 中国曾经开发过一个用于[测算开源项目活跃度的一个模型](/article-10141-1.html),我们认为从过去感性地看一个开源项目是不是活跃,已经开始逐渐进步到通过理性数据评估了,但是这需要排除一些数据作弊的情况,就像之前很多人会用项目的星标数来评估项目的活跃度,这当然很粗糙。我们今年还会继续配合 2019 年度的开源年报,而提供数据支持,到时候我们肯定会给 SOFA 相关的项目做一个考察。希望可以切实地反映出来 SOFA 在开源方面的工作。 从之前的脉络上看,到了 SOFA5,还会继续沿袭开放核心的模式,即:**核心部分开源,与本地业务强关联,但是跟核心不是强关联的部分不开源。** > > 从蚂蚁金服自身的实践来看,他们已经切实地践行了开源核心模式。 > > > 而对于开源核心模式,有人唱衰,也有人说好,各种观点都有。但从蚂蚁金服自身的实践来看,他们已经切实地践行了开源核心模式,这是我在国内第一个深入了解过的真实落地的开源核心模式项目。 说到开源模式,鲁直表示:“做开源,我觉得首先肯定要做一个心理准备,就是说你要有一个核心部分,再在这个基础上做扩展,**在维护的成本上肯定有一定的上升,但是你要接受这样的成本——我觉得这种成本是可以接受的。**……项目本身要设计好,具备一定分拆的可能性。如果不具备分拆可能性,那没法做了。像微内核这样的设计方式就会比较适合——就是开源一个核心模块,然后再去扩展,各种模块是可插拔的。” 而对于开源工作是如何做的,鲁直说:“我们没有专门做开源的人,也没有专门做内部代码的人,我们是把这两部分放在一起,既做开源又做内部代码,因为这样一个好处是,既熟悉外部的代码,又熟悉内部的代码,这个边界自己可以把握比较好。我们更多是制定一些规则。比如说跟业务层强相关的部分,你开源出去也没人用;如果说跟业务不相关的,**你为什么不开源?**因为你开源的这个产品想要做得更好,这些能力开源出去其实没有太大问题,所以一般我们的标准就是看是不是跟内部系统相关,是不是跟业务强相关,如果不相关就可以开源。” > > 谈话中,鲁直反问的“你为什么不开源?”这句话让我印象深刻。 > > > 谈话中,鲁直反问的“你为什么不开源?”这句话让我印象深刻,这其实代表了他们开源的初心,但是从商业者从公司的角度来说,开源有没有给公司带来真正的好处?这不仅仅是情怀的问题,我相信每一个热爱开源的人,其实存在开源情怀或者是更理想化的想法,但是从另一方面来说,无论是从公司的机制上,还是公司的业绩上,开源还是要有实实在在的收益,能够推动公司业务发展才行。作为一个开源项目的负责人,他是怎么感受到开源的好处呢? 对这个问题,显然他有过成熟的思考: “最直接的好处就是更长效。从眼前看,你的名声出去了招聘是不是也容易找到更合适的人?这是最短期的收益。长期的好处,开源社区里面大家分享了非常多的观点,从实践来看,也是这样。比如说你在一家公司里面去做的话,公司的业务场景是有限的,虽然说蚂蚁金服覆盖了各种各样的业务,金融方面的基本上全覆盖了。但是其他的行业不一定都有,他们遇到这个问题,我们可能并不会遇到,但这些问题可能是未来能够遇到的,如果把一个项目以开源的方式运作,就意味着说,更大的用例场景更容易发现 bug,用的人越多,越有可能会触发这个bug,那对于就是有了进一步完善的可能。 另外,有了这样的一个社区化的发展,有更多人参与进来之后,这个项目可以更快往前发展,而不是只有你自己在。在一家公司里边,团队的人员数量肯定是有限的,而有这么多人来参与,那对于这个项目的往前演进来说有非常大的好处,反过来对公司也会带来更多好处——无论是潜在的还是直接的。 最后,如果你的产品有商业化的支持,比如说其他系统的支撑,也能够更好提供商业化的支持。” SOFA 开源以来,就我目前了解到的情况,大概已经有 30 家左右的企业用户在使用这套开源框架——就是直接拿开源的部分去用了。当然这主要是国内的用户,那么在国外影响力没有像国内这么大的原因在哪儿呢?是因为我们的项目不够国际化呢,还是知道这个框架的人不够多呢? 鲁直说:“我觉得可能是两方面的原因。一方面,我们的确在国际化方面做的并不是很多,在今年我们会去尝试做更多的国际化工作。另外一方面,更多的是文化方面的差异,大家的思维方式可能不太一样。当然我们会尝试走一下国际化的路线,因为开源本来就是不分国界的。” 进一步,SOFA 在社区治理这方面,“**我们希望能够采用和参考 Apache 基金会的方式,这是一个很完善的治理模式,我们会尝试采用这样的方式去社区治理。**这对于国际化产品是有很多好处的,它更多强调的是一种治理模式,是不是以社区的方式在运作,是不是在尊重整个社区等等。”鲁直表示,“我们会考虑跟 Apache 基金会、CNCF 进行直接接触,如果合适的话,我们会捐献项目给基金会。如果只是一家商业公司而没有基金会的支持,大家也会有更多的顾虑。把项目捐献给基金会,给大家更多的信心,通过基金会的托管,让更多一些参与方参与,而不只是有蚂蚁金服,大家也会有更大的信心参与进来。” 最后,鲁直希望致语开源社区,“其实蚂蚁金服开源的东西,也不只是 SOFA 中间件框架,未来会开源更多的东西,包括 AI 方面的一些技术,也希望整个社区能够多关注蚂蚁金服在开源上面未来的举措。” > > ![](/data/attachment/album/201904/29/123906p1y53ibczq5b3zz5.jpg) > > > “穿山甲专访”栏目是 Linux 中国社区推出的面向开源界、互联网技术圈的重要领军人物的系列采访,将为大家介绍中国开源领域中一些积极推动开源,谙熟开源思想的技术人,并辨析其思考、挖掘其动因,揭示其背后所发生的事情,为关注开源、有志于开源的企业和技术人标出一条路径。 > > > 取名为“穿山甲”寓意有二:取穿山甲挖掘、深入之意来象征技术进步和表征技术领袖的作用;穿山甲是珍稀保护动物,宣传公益。 > > >
下载安装 Ubuntu 19.04 “Disco Dingo”
Ankush Das
https://itsfoss.com/ubuntu-19-04-release/
虽然我们已经知道 Ubuntu 19.04 中的新功能 —— 我将在下面提到一些重要的地方,还会给出官方的下载链接。
/data/attachment/album/201904/29/180332njh6usdzre4v3p7e.jpg.thumb.jpg
/data/attachment/album/201904/29/180332njh6usdzre4v3p7e.jpg
true
false
true
lujun9972
geekpi
wxy
false
[ "Ubuntu" ]
桌面应用
{ "viewnum": 7348, "commentnum": 3, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[ { "postip": "27.223.84.74", "message": "LTS 版本延长支持到10年啦?!", "username": "绿色圣光 [Firefox 60.0|GNU/Linux]", "date": "2019-04-30T11:32:15" }, { "postip": "223.15.8.159", "message": "对专有软件更好的支持是不是我们需要的。换句话说,专有软件是不是正在阻碍自由化。我还是比较纠结,不知道哪个更好。", "username": "来自山西太原的 MIUI Browser 10.7|Android 用户", "date": "2019-04-30T12:22:54" }, { "postip": "223.15.8.159", "message": "是的1804支持期限是10年", "username": "来自山西太原的 MIUI Browser 10.7|Android 用户", "date": "2019-04-30T12:23:55" } ]
[]
虽然我们已经知道 Ubuntu 19.04 中的新功能 —— 我将在下面提到一些重要的地方,还会给出官方的下载链接。
2019-04-29T18:03:26
2019-04-29T18:03:26
10,795
/article-10795-1.html
Ubuntu 19.04 “Disco Dingo” 已经发布,可以下载了。虽然我们已经知道 [Ubuntu 19.04 中的新功能](https://itsfoss.com/ubuntu-19-04-release-features/) —— 我将在下面提到一些重要的地方,还会给出官方的下载链接。 ### Ubuntu 19.04:你需要知道什么 以下是你应该了解的有关 Ubuntu 19.04 Disco Dingo 发布的一些内容。 #### Ubuntu 19.04 不是 LTS 版本 与 Ubuntu 18.04 LTS 不同,它不会[支持 10 年](https://itsfoss.com/ubuntu-18-04-ten-year-support/)。相反,非 LTS 的 19.04 将支持 **9 个月,直到 2020 年 1 月。** 因此,如果你有生产环境,我们可能不会立即建议你进行升级。例如,如果你有一台运行在 Ubuntu 18.04 LTS 上的服务器 —— 只是因为它是一个新的版本就将它升级到 19.04 可能不是一个好主意。 但是,对于希望在计算机上安装最新版本的用户,可以尝试一下。 ![](/data/attachment/album/201904/29/180332njh6usdzre4v3p7e.jpg) #### Ubuntu 19.04 对 NVIDIA GPU 用户是个不错的更新 Martin Wimpress(来自 Canonical)在 Ubuntu MATE 19.04(Ubuntu 版本之一)的 [GitHub](https://github.com/ubuntu-mate/ubuntu-mate.org/blob/master/blog/20190418-ubuntu-mate-disco-final-release.md) 的最终发布说明中提到 Ubuntu 19.04 对 NVIDIA GPU 用户来说特别重要。 换句话说,在安装专有图形驱动时 —— 它现在会选择与你特定 GPU 型号兼容最佳的驱动程序。 #### Ubuntu 19.04 功能 尽管我们已经讨论过 [Ubuntu 19.04](https://itsfoss.com/ubuntu-19-04-release-features/) Disco Dingo 的[最佳功能](https://itsfoss.com/ubuntu-19-04-release-features/),但值得一提的是,我对本次发布的主要变化:桌面更新 (GNOME 3.32) 和 Linux 内核 (5.0)感到兴奋。 #### 从 Ubuntu 18.10 升级到 19.04 显而易见,如果你安装了 Ubuntu 18.10,你应该升级它。18.10 将于 2019 年 7 月停止支持 —— 所以我们建议你将其升级到 19.04。 要做到这一点,你可以直接进入“软件和更新”设置,然后选择“更新”选项卡。 现在将选项从“通知我新的 Ubuntu 版本” 变成 “任何新版本都通知我”。 现在再次运行更新管理器时,你应该会看到 Ubuntu 19.04。 ![](/data/attachment/album/201904/29/180334if62yfr361ay2frv.jpg) #### 从 Ubuntu 18.04 升级到 19.04 建议不要直接从 18.04 升级到 19.04,因为你需要先将操作系统更新到 18.10,然后再继续升级到 19.04。 相反,你只需下载 Ubuntu 19.04 的官方 ISO 映像,然后在你的系统上重新安装 Ubuntu。 ### Ubuntu 19.04:所有版本都可下载 根据[发行说明](https://wiki.ubuntu.com/DiscoDingo/ReleaseNotes),现在可以下载 Ubuntu 19.04。你可以在其官方发布下载页面上获取种子或 ISO 文件。 * [下载 Ubuntu 19.04](https://www.ubuntu.com/download/desktop) 如果你需要不同的桌面环境或需要特定的东西,你应该查看 Ubuntu 的官方版本: * [Ubuntu MATE](https://ubuntu-mate.org/download/) * [Kubuntu](https://kubuntu.org/getkubuntu/) * [Lubuntu](https://lubuntu.me/cosmic-released/) * [Ubuntu Budgie](https://ubuntubudgie.org/downloads) * [Ubuntu Studio](https://ubuntustudio.org/2019/04/ubuntu-studio-19-04-released/) * [Xubuntu](https://xubuntu.org/download/) 上面提到的一些 Ubuntu 版本还没有在页面提供 19.04。但你可以[仍然在 Ubuntu 的发行说明网页上找到 ISO](https://wiki.ubuntu.com/DiscoDingo/ReleaseNotes)。就个人而言,我使用带 GNOME 桌面的 Ubuntu。你可以选择你喜欢的。 ### 总结 你如何看待 Ubuntu 19.04 Disco Dingo?这些新功能是否足够令人兴奋?你试过了吗?请在下面的评论中告诉我们。 --- via: <https://itsfoss.com/ubuntu-19-04-release/> 作者:[Ankush Das](https://itsfoss.com/author/ankush/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
Linux 初学者:移动文件
Paul Brown
https://www.linux.com/blog/2018/8/linux-beginners-moving-things-around
你学习了有关目录和访问目录的权限是如何工作的。你在这些文章中学习的大多数内容都可应用于文件
/data/attachment/album/201904/30/122009vy33l5tmr0t0itiz.jpg.thumb.jpg
/data/attachment/album/201904/30/122009vy33l5tmr0t0itiz.jpg
true
false
true
lujun9972
warmfrog
wxy
false
[ "文件", "目录" ]
技术
{ "viewnum": 8162, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[ { "raid": 10066, "displayorder": 0 } ]
你学习了有关目录和访问目录的权限是如何工作的。你在这些文章中学习的大多数内容都可应用于文件
2019-04-30T12:20:43
2019-04-30T12:20:43
10,796
/article-10796-1.html
![](/data/attachment/album/201904/30/122009vy33l5tmr0t0itiz.jpg) 在之前的该系列的部分中,[你学习了有关目录](/article-10066-1.html)和[访问目录](/article-10399-1.html)[的权限](/article-10370-1.html)是如何工作的。你在这些文章中学习的大多数内容都可应用于文件,除了如何让一个文件变成可执行文件。 因此让我们在开始之前先解决这个问题。 ### 不需要 .exe 扩展名 在其他操作系统中,一个文件的性质通常由它的后缀决定。如果一个文件有一个 .jpg 扩展,操作系统会认为它是一幅图像;如果它以 .wav 结尾,它是一个音频文件;如果它在文件名末尾以 .exe 结尾,它就是一个你可以执行的程序。 这导致了严重的问题,比如说木马可以伪装成文档文件。幸运的是,在 Linux 下事物不是这样运行的。可以确定的是,你可能会看到有些可执行文件是以 .sh 结尾暗示它们是可执行的脚本,但是这大部分是为了便于人眼找到文件,就像你使用 `ls --color` 将可执行文件的名字以亮绿色显示的方式相同。 事实上大多数应用根本没有扩展名。决定一个文件是否是一个真正程序的是 `x` (指*可执行的*)位。你可以通过运行以下命令使任何文件变得可执行, ``` chmod a+x some_program ``` 而不管它的扩展名是什么或者是否存在。在上面命令中的 `x` 设置了 `x` 位,`a` 说明你为*所有*用户设置它。你同样可以为一组用户设置成拥有这个文件(`g+x`),或者只为一个用户——拥有者——设置 (`u+x`)。 尽管我们会在该系列之后的部分包含从命令行创建和运行脚本的内容,并学习通过输入它的路径并在结尾加上程序名的方式运行一个程序: ``` path/to/directory/some_program ``` 或者,如果你当前在相同目录,你可以使用: ``` ./some_program ``` 还有其他方式可以使你的程序在目录树的任意位置运行 (提示:查询 `$PATH` 环境变量),但是当我们讨论 shell 脚本的时候你会读到这些。 ### 复制、移动、链接 明显地,从命令行修改和处理文件有很多的方式,而不仅仅是处理它们的权限。当你试图打开一个不存在的文件是,大多数应用会创建一个新文件。如果 `test.txt` 当前并不存在,下列命令: ``` nano test.txt ``` ``` vim test.txt ``` ([nano](https://www.nano-editor.org/) 和 [vim](https://www.vim.org/) 是流行的命令行文本编辑器)都将为你创建一个空的 `test.txt` 文件来编辑。 你可以通过 “触摸” (`touch`)来创建一个空的文件, ``` touch test.txt ``` 会创建一个文件,但是不会在任何应用中打开它。 你可以使用 `cp` 来拷贝一个文件到另一个位置,或者使用一个不同的名字: ``` cp test.txt copy_of_test.txt ``` 你也可以拷贝一堆文件: ``` cp *.png /home/images ``` 上面的命令拷贝当前目录下的所有 PNG 文件到相对你的主目录下的 `images/` 目录。在你尝试之前 `images/` 目录必须存在, 不然 `cp` 将显示一个错误。同样的,警惕,当你复制一个文件到一个已经包含相同名字的文件的目录时,`cp` 会静默地用新文件覆盖老的文件。 你可以使用: ``` cp -i *.png /home/images ``` 如果你想要 `cp` 命令在有任何危险时警告你 (`-i` 选项代表*交互式的*)。 你同样可以复制整个目录,但是为了做到这样,你需要 `-r` 选项: ``` cp -rv directory_a/ directory_b ``` `-r` 选项代表*递归*,意味着 `cp` 会向下探索目录 `directory_a`,复制所有的文件和子目录下内部包含的。我个人喜欢包含 `-v` 选项,因为它使 `cp` 冗长而啰嗦,意味着它会显示你当前它正在做什么而不是仅仅静默的复制然后存在。 `mv` 命令移动东西。也就是说,它移动文件从一个位置到另一个位置。最简单的形式,`mv` 表现的更像 `cp`: ``` mv test.txt new_test.txt ``` 上面的命令使 `new_test.txt` 出现,`test.txt` 消失。 ``` mv *.png /home/images ``` 移动当前目录下所有的 PNG 文件到相对于你的主目录的 `images/` 目录。同样的你必须小心你没有意外的覆盖已存在的文件。使用 ``` mv -i *.png /home/images ``` 如果你想站在安全的角度,你可以使用与 `cp` 相同的方式。 除了移动与拷贝的不同外,另一个 `mv` 和 `cp` 之间的不同是当你移动目录时: ``` mv directory_a/ directory_b ``` 不需要添加递归的标志。这是因为你实际做的是重命名一个目录,与第一个例子相同,你做的是重命名文件。实际上,即使你从一个目录到另一个目录 “移动” 一个文件,只要两个目录在相同的存储设备和分区,你就是在重命名文件。 你可以做一个实验来证明。 `time` 是一个工具来让你测量一个命令花费多久来执行。找一个非常大的文件,可以是几百 MB 甚至 几 GB (例如一个长视频),像下方这样尝试拷贝到另一个目录: ``` $ time cp hefty_file.mkv another_directory/ real 0m3,868s user 0m0,016s sys 0m0,887s ``` 下面是 `time` 的输出。需要关注的是第一行, real 时间。它花费了几乎 4 秒来拷贝 355 MB 的 `hefty_file.mkv` 到 `another_directory/` 目录。 现在让我们尝试移动它: ``` $ time mv hefty_file.mkv another_directory/ real 0m0,004s user 0m0,000s sys 0m0,003s ``` 移动几乎是瞬时的!这是违反直觉的,因为看起来 `mv` 必须复制这个文件然后删除原来的。这是 `mv` 对比 `cp` 命令必须做的两件事。但是,实际上,`mv` 快了 1000 倍。 这是因为文件系统结构中,它的所有目录树,只为了让用户便利而存在。在每个分区的开始,有一个称作*分区表*的东西告诉操作系统在实际的物理磁盘上去哪找每个文件。在磁盘上,数据没有分为目录甚至是文件。[作为替代的是轨道、扇区和簇](https://en.wikipedia.org/wiki/Disk_sector)。当你在相同分区 “移动” 一个文件时,操作系统实际做的仅仅是在分区表中改变了那个文件的入口,但它仍然指向磁盘上相同的簇信息。 是的!移动是一个谎言!至少在相同分区下是。如果你试图移动一个文件到一个不同的分区或者不同的设备, `mv` 仍然很快,但可以察觉到它比在相同分区下移动文件慢了。这是因为实际上发生了复制和清除数据。 ### 重命名 有几个不同的命令行 `rename` 工具。没有一个像 `cp` 和 `mv` 那样固定,并且它们工作的方式都有一点不同,相同的一点是它们都被用来改变文件名的部分。 在 Debian 和 Ubuntu 中, 默认的 `rename` 工具使用 [正则表达式](https://en.wikipedia.org/wiki/Regular_expression)(字符组成的字符串模式)来大量的改变目录中的文件。命令: ``` rename 's/\.JPEG$/.jpg/' * ``` 将改变所有扩展名为 `JPEG` 的文件为 `jpg`。文件 `IMG001.JPEG` 变成 `IMG001.jpg`、 `my_pic.JPEG` 变成 `my_pic.jpg`,等等。 另一个 `rename` 版本默认在 Manjaro 上可获得,这是一个 Arch 的衍生版,更简单,但是可能没有那么强大: ``` rename .JPEG .jpg * ``` 这和你之前看到的上面做相同的重命名操作。在这个版本,`.JPEG` 是你想改变的字符组成的字符串,`.jpg` 是你想要改变成为的,`*` 表示当前目录下的所有文件。 基本原则是如果你所做的仅仅是重命名一个文件或者目录,你最好用 `mv`,这是因为 `mv` 在所有分发版上都是可靠一致的。 ### 了解更多 查看 `mv` 和 `cp` 的 man 页面了解更多。运行 ``` man cp ``` 或者 `man mv` 来阅读这些命令自带的所有选项,这些使他们使用起来更强大和安全。 --- via: <https://www.linux.com/blog/2018/8/linux-beginners-moving-things-around> 作者:[Paul Brown](https://www.linux.com/users/bro66) 选题:[lujun9972](https://github.com/lujun9972) 译者:[warmfrog](https://github.com/warmfrog) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
许多数据中心的工作者很满意他们的工作,将鼓励他们的孩子继续从事这份工作
Andy Patrizio
https://www.networkworld.com/article/3389359/most-data-center-workers-happy-with-their-jobs-despite-the-heavy-demands.html
一份 Informa Engage 和 Data Center Knowledge 的报告调查发现,在数据中心工作的人很满意他们的工作,因此他们将会鼓励他们的孩子从事这份工作。
/data/attachment/album/201904/30/133924m3imlv7ei4iqveec.jpg.thumb.jpg
/data/attachment/album/201904/30/133924m3imlv7ei4iqveec.jpg
true
false
true
lujun9972
arrowfeng
wxy
false
[ "工作" ]
观点
{ "viewnum": 3747, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
一份 Informa Engage 和 Data Center Knowledge 的报告调查发现,在数据中心工作的人很满意他们的工作,因此他们将会鼓励他们的孩子从事这份工作。
2019-04-30T13:39:21
2019-04-30T13:39:21
10,797
/article-10797-1.html
> > 一份 Informa Engage 和 Data Center Knowledge 的报告调查发现,在数据中心工作的人很满意他们的工作,因此他们将会鼓励他们的孩子从事这份工作。 > > > ![Thinkstock](/data/attachment/album/201904/30/133924m3imlv7ei4iqveec.jpg) 一份由 [Informa Engage 和 Data Center Knowledge](https://informa.tradepub.com/c/pubRD.mpl?sr=oc&_t=oc:&qf=w_dats04&ch=datacenterkids) 主导的调查报告显示,数据中心的工作者总体上对他们的工作很满意。尽管对时间和大脑的要求很高,但是他们还是鼓励自己的孩子能从事这项工作。 总体满意度非常好,72% 的受访者普遍同意“我喜欢我目前的工作”这一说法,三分之一的受访者则表示非常同意。75% 的人同意声明,“如果我的孩子、侄女或侄子问,我将建议他们进入 IT 行业。” 在数据中心工作的员工之中,有一种很重要的感觉,88% 的人觉得他们自己对于雇主的成功非常重要。 尽管存在一些挑战,其中最主要的是技能和认证的缺乏。调查的受访者认为缺乏技能是最受关注的领域。只有 56% 的人认为他们需要完成工作所需的培训,74% 的人表示他们已经在 IT 行业工作了十多年。 这个行业提供认证计划,每个主要的 IT 硬件供应商都有,但是 61% 的人表示在过去的 12 个月里他们并没有完成或者重新续订证书。有几个原因: 三分之一(34%)说是由于他们工作的组织缺乏培训预算,而 24% 的人认为是缺乏时间,16% 的人表示管理者认为不需要培训,以及另外 16% 的人表示在他们的工作地点没有培训计划。 这并不让我感到惊讶,因为科技是世界上最开放的行业之一,在那里你可以找到培训和教育材料并自学。已经证实了[许多程序员是自学成才](https://www.networkworld.com/article/3046178/survey-finds-most-coders-are-self-taught.html),包括行业巨头比尔·盖茨、史蒂夫·沃兹尼亚克、约翰·卡马克和杰克·多尔西。 ### 数据中心工作者们的薪水 数据中心工作者不会抱怨酬劳。当然,大部分不会。50% 的人每年可以赚到 $100,000 甚至更多,然而 11% 的人赚的少于 $40,000。三分之二的受访者来自于美国,因此那些低端收入人士可能在国外。 有一个值得注意的差异。史蒂夫·布朗是伦敦数据中心人力资源的总经理,他说软件工程师获得的薪水比硬件工程师多。 布朗在这篇报道中说,“数据中心软件工程方面的工作可以与高收入的职业媲美,而在物理基础设施——机械/电气方面的工作——情况并非如此。它更像是中层管理。” ### 数据中心的专业人士仍然主要是男性 最不令人惊讶的发现?10 个受访者中有 9 个是男性。该行业正在调整解决性别歧视问题,但是现在没什么改变。 这篇报告的结论有一点不太好,但是我认为是错的: > > “随着数据中心基础设施完成云计算模式的过渡,软件进入到容器和微服务时代,数据中心剩下来的珍贵领导者——在 20 世纪获得技能的人——可能会发现没有任何他们了解的东西需要管理,也没有人需要他们领导。当危机最终来临时,我们可能会感到震惊,但是我们不能说我们没有受到警告。" > > > 我说过了很多次,[数据中心不会消失](https://www.networkworld.com/article/3289509/two-studies-show-the-data-center-is-thriving-instead-of-dying.html)。 --- via: <https://www.networkworld.com/article/3389359/most-data-center-workers-happy-with-their-jobs-despite-the-heavy-demands.html> 作者:[Andy Patrizio](https://www.networkworld.com/author/Andy-Patrizio/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[arrowfeng](https://github.com/arrowfeng) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
每日安全资讯:开发人员发现被称为“盗梦空间栏”的网络钓鱼方法
安华金和
这个相当简单的技巧已在 Chrome 移动版中得到证明,并利用了浏览器在地址栏方面的行为。当用户向下滚动时,为了给网页留出更多空间,Chrome 会隐藏地址栏,而这正是这个所谓的“盗梦空间栏”的用武之地。
/data/attachment/album/201904/30/134911cl8zrul80u8uzckc.jpg.thumb.jpg
/data/attachment/album/201904/30/134911cl8zrul80u8uzckc.jpg
true
false
false
false
[ "Chrome", "钓鱼" ]
每日安全资讯
{ "viewnum": 3748, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
这个相当简单的技巧已在 Chrome 移动版中得到证明,并利用了浏览器在地址栏方面的行为。当用户向下滚动时,为了给网页留出更多空间,Chrome 会隐藏地址栏,而这正是这个所谓的“盗梦空间栏”的用武之地。
2019-04-30T13:49:29
2019-04-30T13:49:29
10,798
/article-10798-1.html
![](/data/attachment/album/201904/30/134911cl8zrul80u8uzckc.jpg) 据外媒 Neowin 报道,网络钓鱼并不是一个关于网络安全的新话题,尽管经常会发现新的和创造性的方法来实施这种做法。其中一种方式是新发现并巧妙地被命名为“盗梦空间栏”的网络钓鱼方法。 ![](/data/attachment/album/201904/30/134713hi8mft8fnmtunfuu.jpg) 由开发人员 James Fisher 提供,这个相当简单的技巧已在 Chrome 移动版中得到证明,并利用了浏览器在地址栏方面的行为。当用户向下滚动时,为了给网页留出更多空间,Chrome 会隐藏地址栏,而这正是这个所谓的“盗梦空间栏”的用武之地。 如上所述,概念证明使用汇丰网站作为用户所在的真实网站的替代品。这是通过 Fisher 称之为“滚动监狱”的东西来完成的,其中页面的整个内容被困在一个带有 `overflow:scroll` 的新元素中,从而在浏览器中创建一种浏览器 —— 对 2010 年的《盗梦空间》的“梦中梦”的概念的引用。虚假地址栏甚至可以进行交互。 为了创造一个更精细的错觉,开发人员表示,具有恶意意图的人可能会在“滚动监狱”的顶部添加“非常高的填充元素”。这样做是为了防止 Chrome 在用户向上滚动时重新显示地址栏的正常行为。实际上,这看起来像页面刷新。 虽然通过简单地导航到 Chrome 的一个菜单就可以打破错觉,但这仍然被认为是一种令人不安的实施网络钓鱼攻击的方式。 来源:cnBeta.COM ### 更多资讯 ##### 涉案金额 2.3 亿 春节档电影侵权盗版系列专案侦破 公安部今天在江苏扬州召开新闻发布会,通报公安部部署开展打击春节档电影侵权盗版违法犯罪活动、成功办“2·15”系列专案工作情况。今年春节期间《流浪地球》《飞驰人生》《疯狂的外星人》等几部热播电影上映后,出现了大规模盗版,不仅严重侵害了影视作品制作方、出品人的合法权益,而且严重影响了我国影视行业提质升级发展。 来源: 央视财经 详情: <http://t.cn/ESI1T1M> ##### 法国新区块链法规定银行不能随意拒绝为虚拟货币初创公司提供服务 据外媒报道,在发达国家中,法国对加密货币和区块链公司监管的新做法可以说是前卫的。或许最引人注目的例子就是,法国金融市场监管机构(AMF)起草的监管框架,其目的是消除此类初创企业长期以来面临的一个争议点:银行关系。 来源: cnBeta.COM 详情: <http://t.cn/ESI1u95> ##### iPod 之父:苹果屏幕时间功能存在很多漏洞和不足 4 月 29 日消息,据国外媒体报道,苹果近日在屏幕时间应用方面陷入了麻烦之中,其被外媒报道对大量的第三方这一类应用进行了限制,部分还被其从 App Store 中移除,部分开发商认为苹果此举是为了打压竞争对手,以扶持自家的屏幕时间控制功能,两款应用的开发商还因此而将苹果投诉至欧盟的竞争办公室。 来源: TechWeb 详情: <http://t.cn/ESI1Dkh> ##### GoDaddy 宣布移除 1.5 万个涉嫌销售假冒产品的欺诈子域名 网络托管服务提供商和域名注册商 GoDaddy 宣布已删除下架超过 15000 个子域名。这些子域名被黑客用于发送垃圾邮件,向消费者出售假冒伪劣产品。用户通常会收到各种宣传产品的垃圾邮件,如果受害者点击这些电子邮件中的链接,就会跳转访问托管在合法网站下的子域名,在该网站合法所有者不知情的情况下牟取利益。 来源: cnBeta.COM 详情: <http://t.cn/ESIBZxB> (信息来源于网络,安华金和搜集整理)
Apache 基金会将其所有项目双主镜像至 GitHub
Asf
https://blogs.apache.org/foundation/entry/the-apache-software-foundation-expands
Apache 基金会(ASF)正式宣布,该基金会已经将其旗下的 350 多个项目、多达 2 亿行的代码迁移至 GitHub。
/data/attachment/album/201904/30/233559ehzsvrz0zvxrocb1.png.thumb.jpg
/data/attachment/album/201904/30/233559ehzsvrz0zvxrocb1.png
true
false
true
wxy
false
[ "GitHub", "Apache", "ASF" ]
新闻
{ "viewnum": 5100, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
Apache 基金会(ASF)正式宣布,该基金会已经将其旗下的 350 多个项目、多达 2 亿行的代码迁移至 GitHub。
2019-04-30T23:40:00
2019-04-30T23:40:00
10,799
/article-10799-1.html
![](/data/attachment/album/201904/30/233559ehzsvrz0zvxrocb1.png) Apache 基金会(ASF)[正式宣布](https://blogs.apache.org/foundation/entry/the-apache-software-foundation-expands),该基金会已经将其旗下的 350 多个项目、多达 2 亿行的代码从内部的 Git 基础设施迁移至 GitHub。 作为全球最大的开源基金会,ASF 拥有 730 名个人 ASF <ruby> 成员 <rp> ( </rp> <rt> Member </rt> <rp> ) </rp></ruby>和超过 7000 名的 Apache 代码<ruby> 提交者 <rp> ( </rp> <rt> Commiter </rt> <rp> ) </rp></ruby>,在其 20 年的历史当中,已经通过 300 万个代码提交累计贡献了多达 10 亿行的代码。 Apache 项目最初在 [ASF 基础设施](https://www.apache.org/dev/infrastructure.html)中提供了两种版本控制服务:Apache Subversion 和 Git。而多年来,越来越多的项目及其社区希望在 GitHub 上看到他们的源代码。但是由于这些代码在 GitHub 只是只读的镜像,因此在这些代码存储库上只能使用有限的 GitHub 工具。 “2016 年,基金会开始将 GitHub 的代码存储库和工具与我们自己的服务集成在一起。这使得部分选定的项目能够使用 GitHub 的优秀工具,”ASF 基础设施管理员 Greg Stein 说。 “随着时间的推移,我们改进、调试并巩固了这种集成。在 2018 年末,我们要求所有项目从我们内部的 git 服务转移到 GitHub 提供的服务。这种转变会将 GitHub 所有的工具带到我们的项目中,而我们在我们的基础设施上维护一个备用镜像。” GitHub CEO Nat Friedman 表示:“我们很自豪能让开源社区这么长期的成员转移到 GitHub。……无论是与个人开源维护者和贡献者,还是与一些世界上最大的开源基金会(如 Apache)合作,GitHub 的使命是通过支持开源社区,满足他们的独特需求和帮助开源来成为所有开发人员的家,让项目茁壮成长。” 在 2019 年 2 月,迁移到 GitHub 的工作已经完成,ASF 自己的 git 服务退役。 “我们将继续试验和扩展 GitHub,以根据我们自己的需求和要求为我们的社区提供服务,”Stein 补充道。 “基金会已经开始与 GitHub 管理层密切合作,探索实现这一目标的方法,以及将来可能实现的目标。” ### 补充:Apache 基金会的项目并未“迁移”至 GitHub,而是做了个双主镜像 经过多位 Apache 基金会的贡献者解释,这则消息存在一定的误读,特此做个澄清。 据 Apache 基金会官方的[解释](https://blogs.apache.org/infra/entry/apache-and-github-a-friendly),之前,Apache 基金会“有两个不同的 git 服务:gitbox 和 git-wip-us,后者是自 2010 年以来一直可用的最初的 git 服务”,而通常会在 GitHub 上建立一个只读镜像。 随着 Apache 基金会旗下各个项目表示出对利用 GitHub 基础设施服务的兴趣,从 2016 年中期,Apache 基金会建立了 [gitbox](https://gitbox.apache.org/),以使项目能够正常使用 GitHub 服务。gitbox 提供的是一种双主镜像的仓库,即使用者可以在 GitHub 上进行提交、处理 PR 和工单等,也可以采用 Apache 内部账户进行相同的操作——而无论在任何一端的操作都是双向同步的。 到了 2018 年,基金会决定将所有使用 git 服务项目都迁移至 gitbox,使之可以利用 GitHub 生态的更多工具,并将 git-wip-us 服务废弃。这个工作已于 2019 年 2 月完成。 所以,现在的状态是:Apache 基金会旗下采用 git 作为版本仓库的项目,都迁移至 gitbox 了。这些项目既可以使用 GitHub 的基础设施和工具,也可以使用 Apache 基金会账户在 gitbox 上进行相同的操作。因此,这就是“通过集成了 GitHub 而扩展了 Apache 基金会的基础设施”(原新闻标题)。 感谢 Apache 基金会的贡献者“吴晟@skywalking”、“刘天栋Ted.开源社”和华为的姜宁提供的信息。
4 种在 Linux 中检查默认网关或者路由器 IP 地址的方法
Magesh Maruthamuthu
https://www.2daygeek.com/check-find-default-gateway-or-router-ip-address-in-linux/
如果你的系统不能 ping 自身,那么很可能是一个网关问题,你必须修复它。在网络中,当你有多个网络适配器或路由器时,这种情况可能会发生。
/data/attachment/album/201905/01/004309i1tm5fq5ybqzsyas.jpg.thumb.jpg
/data/attachment/album/201905/01/004309i1tm5fq5ybqzsyas.jpg
true
false
true
lujun9972
warmfrog
wxy
false
[ "网关", "路由" ]
技术
{ "viewnum": 11986, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
如果你的系统不能 ping 自身,那么很可能是一个网关问题,你必须修复它。在网络中,当你有多个网络适配器或路由器时,这种情况可能会发生。
2019-05-01T00:43:16
2019-05-01T00:43:16
10,800
/article-10800-1.html
![](/data/attachment/album/201905/01/004309i1tm5fq5ybqzsyas.jpg) 你应该意识到你的默认网关是你的路由器的 IP 地址。一般这是在安装过程中由操作系统自动检测的,如果没有,你可能需要改变它。如果你的系统不能 ping 自身,那么很可能是一个网关问题,你必须修复它。在网络中,当你有多个网络适配器或路由器时,这种情况可能会发生。 网关是一个扮演着入口点角色的路由器,可以从一个网络传递网络数据到另一个网络。 下面是一些可能帮助你收集到与该话题相似的一些信息。 * [在 Linux 命令行检查你的公网 IP 地址的 9 种方法](https://www.2daygeek.com/check-find-server-public-ip-address-linux/) * [如何在 Linux 启用和禁用网卡?](https://www.2daygeek.com/enable-disable-up-down-nic-network-interface-port-linux-using-ifconfig-ifdown-ifup-ip-nmcli-nmtui/) 这可以通过下面的四个命令完成。 * `route` 命令:被用来显示和操作 IP 路由表。 * `ip` 命令:类似于 `ifconfig`,常用于设置静态 IP 地址、路由 & 默认网关,等等。 * `netstat` 命令:是一个命令行工具,用来显示网络连接相关的信息(包括入站和出站的),例如路由表、伪装连接、多播成员和网络接口。 * `routel` 命令:被用来以好看的输出格式列出路由。 ### 1)在 Linux 中如何使用 route 命令检查默认的网关或者路由 IP 地址? `route` 命令被用来显示和操作 IP 路由表。 它主要用于通过一个已经配置的接口给特定的主机或者网络设置静态的路由。 当使用 `add` 或者 `del` 选项时,`route` 修改路由表。没有这些选项,`route` 显示路由表的当前内容。 ``` # route 或 # route -n Kernel IP routing table Destination Gateway Genmask Flags Metric Ref Use Iface default www.routerlogin 0.0.0.0 UG 600 0 0 wlp8s0 192.168.1.0 0.0.0.0 255.255.255.0 U 600 0 0 wlp8s0 ``` ### 2)如何在 Linux 中使用 ip 命令检查默认网关或者路由 IP 地址? [IP 命令](https://www.2daygeek.com/ip-command-configure-network-interface-usage-linux/) 类似于 `ifconfig`,常用于配置静态 IP 地址、路由 & 默认网关,等等。 `ifconfig` 命令因为多年没有维护而被遗弃了,即使它仍然在大多数 Linux 发行版上可获得。 `ifconfig` 命令已经被 `ip` 命令替代了,`ip` 命令是非常强大的,只要一个命令就能执行几个网络管理任务。 `ip` 命令工具附带在 iproute2 包中。在主要的 Linux 发行版中都默认预装了 iproute2 。 如果没有,你可以在你的终端中在包管理器的帮助下通过指定 iproute2 来安装它。 ``` # ip r 或 # ip route 或 # ip route show default via 192.168.1.1 dev wlp8s0 proto dhcp metric 600 192.168.1.0/24 dev wlp8s0 proto kernel scope link src 192.168.1.6 metric 600 ``` ### 3)如何在 Linux 中使用 netstat 命令检查默认网关或者路由 IP 地址? `netstat` 代表 Network Statistics,是一个用来显示网络连接相关的信息(包括入站和出站)的命令行工具,例如路由表、伪装连接,多播成员和网络接口。 它列出所有的 tcp、udp 套接字连接和 unix 套接字连接。 它在网络中被用来诊断网络问题并判断网络中的流量总量来作为性能测量指标。 ``` # netstat -r Kernel IP routing table Destination Gateway Genmask Flags MSS Window irtt Iface default www.routerlogin 0.0.0.0 UG 0 0 0 wlp8s0 192.168.1.0 0.0.0.0 255.255.255.0 U 0 0 0 wlp8s0 ``` ### 4)如何在 Linux 中使用 routel 命令检查默认网关或者路由 IP 地址? 它用来以好看的输出格式列出路由信息。这些程序是一系列你可以用来替代 iproute2 的帮助脚本(`routel` 和 `routef`)。 `routel` 脚本以一种被认为更容易解释并且等价于 `route` 输出列表的格式来输出路由信息。 如果 `routef` 脚本不加任何参数,将仅仅简单的将路由表清空。小心!这意味着删除所有的路由,让你的网络不再可用。 ``` # routel target gateway source proto scope dev tbl default 192.168.1.1 dhcp wlp8s0 192.168.1.0/ 24 192.168.1.6 kernel link wlp8s0 127.0.0.0 broadcast 127.0.0.1 kernel link lo local 127.0.0.0/ 8 local 127.0.0.1 kernel host lo local 127.0.0.1 local 127.0.0.1 kernel host lo local 127.255.255.255 broadcast 127.0.0.1 kernel link lo local 192.168.1.0 broadcast 192.168.1.6 kernel link wlp8s0 local 192.168.1.6 local 192.168.1.6 kernel host wlp8s0 local 192.168.1.255 broadcast 192.168.1.6 kernel link wlp8s0 local ::1 kernel lo fe80::/ 64 kernel wlp8s0 ::1 local kernel lo local fe80::ad00:2f7e:d882:5add local kernel wlp8s0 local ff00::/ 8 wlp8s0 local ``` 如果你只想打印默认的网关那么使用下面的格式。 ``` # routel | grep default default 192.168.1.1 dhcp wlp8s0 ``` --- via: <https://www.2daygeek.com/check-find-default-gateway-or-router-ip-address-in-linux/> 作者:[Magesh Maruthamuthu](https://www.2daygeek.com/author/magesh/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[warmfrog](https://github.com/warmfrog) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
忠诚与背叛:Emacs 遭遇背刺,你将何去何从?
小白
昨天,一名推特用户“EmacsTW”发布了一条新的推文,告诫希望使用 Emacs 的人放弃 Emacs,转用一些现代化的编辑器比如 VSCode。
/data/attachment/album/201905/01/124746wat8ixnz6336686x.jpg.thumb.jpg
/data/attachment/album/201905/01/124746wat8ixnz6336686x.jpg
true
false
false
false
[ "VSCode", "Emacs" ]
观点
{ "viewnum": 5860, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
昨天,一名推特用户“EmacsTW”发布了一条新的推文,告诫希望使用 Emacs 的人放弃 Emacs,转用一些现代化的编辑器比如 VSCode。
2019-05-01T12:48:00
2019-05-01T12:48:00
10,801
/article-10801-1.html
![](/data/attachment/album/201905/01/124746wat8ixnz6336686x.jpg) 昨天,一名推特用户“EmacsTW”发布了一条新的推文,告诫希望使用 Emacs 的人放弃 Emacs,转用一些现代化的编辑器比如 VSCode。 ![](/data/attachment/album/201905/01/124829s1ts92vh800i201n.jpg) 一时间,技术圈炸了锅,尤其是在 Emacs 用户群体,大家议论纷纷: * “中出了个叛徒” * “什么鬼?虽然我现在 VSCode 用的也比 Emacs 多,但说 Emacs 害人有点过了” * “哼哼哼… VSCode 又不能煮咖啡、不能玩遊戲” * “哈哈哈哈太突然了。作为一个 Emacs 使用者觉得他说的很有道理,我也从来不向他人推荐 Emacs,太浪费时间了。” * “我司如果只看 Vim vs. Emacs 的话,Vim 完胜,但是大部分还是 VSCode……” ### 一个 Emacs 忠实粉丝眼中的 Emacs 背刺事件 由于笔者本人并不是 Emacs 的粉丝(Vim 更合我的口味,XD),所以我去采访了 LCTT 翻译组内的 Emacs 铁粉,我们的选题负责人 DarkSun(lujun9972),问一问他的看法。 当我问起这个背刺的事件时,DarkSun 给我的第一个反应是: > > 欢迎背叛,舒服就成 > > > 在我表现出了不解之后,DarkSun 又进一步详细的解释了一下他的意思: > > 我觉得如果只是把 Emacs 当成写代码的工具,那真的不如用 IDE 了。 > > > 我把 Emacs 当成是工具信息交流的平台,类似终端那样的东西。Emacs 插件可以看成是 UNIX 工具,它们之间可以通过文本或 lisp 对象进行交流,只不过 Emacs 可以比普通终端更方便的利用这些文本(谁让它本来就是编辑器呢)。 举个例子说,我可以用 Emacs 看 PDF 文档,然后看到不懂的单词可以用有道词典进行翻译,翻译的结果可以直接存到 Anki 里当做背单词的素材。在这个过程中,Emacs 本身起的是信息交流平台的作用,至于解释 PDF、请求有道翻译,请求 anki 添加卡片都是由第三方程序或第三方的包来实现的。 > > > 一百个人有一百零一种使用 Emacs 的方法,我想 Emacs 的这种多样性才是其魅力所在吧。 > > > 在看了他对 Emacs 的理解以后,再联想到“Emacs煮咖啡”的梗,我对他的话深以为然。 > **Emacs 是什么?** > 目前我们所熟悉和使用的 Emacs 是由自由软件领袖 Richard Matthew Stallman (RMS)于 1984 年开发的,并维护至 2008 年。 > > > Emacs 追求大的哲学,它希望在一个编辑器中去完成所有的功能,希望用户只需要借助快捷键与无处不在的宏,就可以完成任何事情,也正因为如此,Emacs 常常被戏称为“**被误以为编辑器的操作系统**”,而不是一个编辑器。 > > > ### 新旧技术的更迭 不可否认,近年来 VSCode 的良心功能和 Sublime Text 3 的舒适好用,使得越来越多的人开始使用这些现代化的开发工具。而对于一些比较重型的语言(比如 C/C++、Java、Golang 等),会借助 IDE 来完成开发的工作。 对于 Emacs 这样一个似乎是文本编辑器但好像又不是文本编辑器的工具来说,现代化的开发工具显然更能获取年轻人的喜爱。 不过,如果可以,我更希望说 “**Emacs 不是一个工具,而是代表了一种生活方式**”,在 Emacs 里,你可以完成任何事情,它就好像融入你的生活一般,改变了你的生活。从这个层面来看,Emacs 无人能敌。 ### 被钉在耻辱柱上的社群背叛者 —— azazabc123 抛开 Emacs 和 VScode 的孰优孰劣不谈,就该推特维护者本身的行为来说,这是一种非常不妥的行为,这让 Emacs TW 社群蒙羞于整个技术社群。这种公器私用毫无疑问是背叛了整个社群,作为社群对外窗口的维护者,发布一条与本社群背道而驰的内容难免会让人觉得不妥。而且,这种行为使得对于 Emacs 的背叛行为从个人行为上升到了群体行为,Emacs TW 中的其他人是否同意这样的行为,还不甚明了——但笔者对该社团的管理能力和未来的前途不报什么期望。 笔者非常不支持这种公器私用的行为,固然其可能存在一定的吐槽、任性的想法,但对于整个社群而言,这种无脑行为只会损伤社群整体的信用度,也降低了对其个人的品行评价。 ### 英雄迟暮? 诞生于 1984 年的 Emacs,迄今已经走过了 35 个年头。Emacs 从曾经的风头正劲,到如今已经略显包罗庞杂。不过,虽然经过了这么多年发展,Emacs 已经足够好用,但依然在坚持不断地更新。在刚刚过去的四月份,Emacs 发布了它的 26.2 版本。 Emacs 依然好用,但时代已经变了,对于如今的 Hacker 们,工具不是最重要的,工具所产生的价值要更加重要。在这种观念下,学习成本极高的 Emacs 难免不受欢迎,简单易用易上手的 VSCode、Sublime 就成为了必然的选择。 但无论如何,虽然我们欢迎新技术,也拥抱新变化,但是该推特维护者的这种让社区蒙羞的行为,依然让我们非常遗憾,表以谴责。
每日安全资讯:微软 Outlook 邮件服务被入侵细节:目标可能是数字货币
安华金和
现在,部分受害者声称黑客窃取了他们的加密数字货币。一位受害者提供了屏幕截图,称黑客访问了他的收件箱,重置了他的 Kraken com 账号,撤回了比特币。
/data/attachment/album/201905/01/131711fbplhnphrzrixq18.jpg.thumb.jpg
/data/attachment/album/201905/01/131711fbplhnphrzrixq18.jpg
true
false
false
false
[ "Outlook" ]
每日安全资讯
{ "viewnum": 3912, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
现在,部分受害者声称黑客窃取了他们的加密数字货币。一位受害者提供了屏幕截图,称黑客访问了他的收件箱,重置了他的 Kraken com 账号,撤回了比特币。
2019-05-01T13:17:29
2019-05-01T13:17:29
10,802
/article-10802-1.html
![](/data/attachment/album/201905/01/131711fbplhnphrzrixq18.jpg) 本月早些时候,微软透露它的 Outlook.com、Hotmail 和 MSN 服务遭到未知攻击者入侵。现在,部分受害者声称黑客窃取了他们的加密数字货币。一位受害者提供了屏幕截图,称黑客访问了他的收件箱,重置了他的 Kraken [dot] com 账号,撤回了比特币。 Kraken 是一个受欢迎的数字货币交易所。这位受害者展示了微软的通知以及黑客在其邮箱设置的转发规则:所有提到 Kraken 的邮件都被转发到了黑客控制的 Gmail 邮箱。 但目前还无法确认此次入侵是否真的针对数字货币。 ![](/data/attachment/album/201905/01/131340ye6e80bca8eu338h.jpg) 来源:solidot.org ### 更多资讯 ##### 破解版电视盒调查:隐藏在盗版资源背后的严重安全隐患 援引安全机构 Sophos 报道,互联网安全组织数字公民联盟(DCA)近日发布报告称很多深受盗版用户青睐的破解版流媒体设备充斥着各种恶意软件。这些破解设备通过 eBay、Craigslist 或暗网等渠道进行销售,价格在 75 美元到 100 美元之间。 来源: cnBeta.COM 详情: <http://t.cn/ESoeu6x> ##### 阿联酋领衔全球加密货币市场 今年前四月销售超 2.1 亿美元 彭博援引 CoinSchedule 的报告称,阿联酋刚刚成为了全球数字代币市场的一枝独秀。在截止今年 4 月初的募资总额中,该国就贡献了 1/4 以上。数字货币市场追踪者 CoinSchedule 上周公布的数据显示,阿联酋的销售额已超 2.1 亿美元,从市场的长期领导者(美国)手中夺过了第一的名号。作为对比,自 2018 年以来,美国市场在最近几个月,首次跌到了第 7 位。 来源: cnBeta.COM 详情: <http://t.cn/ESoeDSZ> ##### 2018 年近 40% 网络流量来自机器人 网络安全服务商 Distil Networks 近期发布了关注自动化网络流量现状的 2019 年 Bad Bot 报告,该报告指出在 2018 年,由机器人产生的网络流量占到了所有流量的 37.9%。报告中提及的机器人流量包含两种情况:合法机器人与恶意机器人产生的流量。 来源: 开源中国 详情: <http://t.cn/ESoD7YJ> ##### 网络交易监督管理办法征求意见:收集消费者个人信息不得用一次性授权方式 4 月 30 日,网络交易监督管理办法公开征求意见,征集意见的时间至 5 月 29 日。《电子商务法》已于 2019 年 1 月 1 日起正式实施,市场监管总局在修改《网络交易管理办法》(原工商总局令第60号)基础上,起草了《网络交易监督管理办法(征求意见稿)》。《办法(征求意见稿)》共6章70条,包括总则、网络交易经营者、消费者权益保护、监督管理、法律责任、附则,重点对“用户信息收集使用保护问题”等进行了修改、补充、完善。 来源: 北青网 详情: <http://t.cn/ESoDUzy> (信息来源于网络,安华金和搜集整理)
清华大学开源软件镜像站推出一键使用服务,将来或支持 42 操作系统
Tuna
https://mirrors.tuna.tsinghua.edu.cn/news/oh-my-tuna/
清华大学开源软件镜像站 是国内著名的开源软件镜像站,在去年某个节日推出了“一键使用 TUNA”服务,并发布了一篇热情澎湃的公告,特此将此服务及公告分享给大家: XD
/data/attachment/album/201905/01/173714gr1cboxa9sxf1owx.jpg.thumb.jpg
/data/attachment/album/201905/01/173714gr1cboxa9sxf1owx.jpg
true
false
false
false
[ "镜像", "TUNA" ]
观点
{ "viewnum": 6004, "commentnum": 4, "favtimes": 1, "sharetimes": 0, "likes": 0 }
[ { "postip": "47.244.162.14", "message": "这是坠吼的!", "username": "来自加拿大的 Firefox 66.0|Windows 10 用户", "date": "2019-05-01T19:23:53" }, { "postip": "218.197.153.67", "message": "支持呀", "username": "CNife [Chrome 72.0|Windows 10]", "date": "2019-05-02T19:11:38" }, { "postip": "202.182.100.230", "message": "最后那几句话太尴尬了。", "username": "来自澳大利亚的 Chrome 73.0|GNU/Linux 用户", "date": "2019-05-06T18:54:33" }, { "postip": "125.34.211.135", "message": "看的我好尴尬啊,你特么就是个写代码的,别搞什么口号行不行", "username": "来自北京的 Chrome 74.0|Mac 10.14 用户", "date": "2019-05-15T15:22:22" } ]
[]
清华大学开源软件镜像站 是国内著名的开源软件镜像站,在去年某个节日推出了“一键使用 TUNA”服务,并发布了一篇热情澎湃的公告,特此将此服务及公告分享给大家: XD
2019-05-01T17:38:00
2019-05-01T17:38:00
10,803
/article-10803-1.html
![](/data/attachment/album/201905/01/173714gr1cboxa9sxf1owx.jpg) [清华大学开源软件镜像站](https://mirrors.tuna.tsinghua.edu.cn/) 是国内著名的开源软件镜像站,在去年某个节日推出了“一键使用 TUNA”服务,并发布了一篇热情洋溢的[公告](https://mirrors.tuna.tsinghua.edu.cn/news/oh-my-tuna/),特此将此[服务](https://tuna.moe/oh-my-tuna)及公告分享给大家: XD > **# 号外:现推出“一键使用TUNA”服务** > 2018-04-01 TUNA Staff > > > 随着 TUNA 协会的现代化建设进入新时代,镜像站面临的主要矛盾已经转化为用户日益增长的高速下载需要和各类软件不简单不直观的配置之间的矛盾。只有正确认识这一主要矛盾,才能确定正确的战略、策略、政策和办法,促进矛盾解决,推动 TUNA 协会进步。 > > > 必须认识到,TUNA 主要矛盾的变化,是关系全局的历史性变化,对协会工作提出了许多新要求。在新任会长 Xavier Yao (a.k.a. Pero) 的带领下,TUNA 协会的同学们勇于担当,攻坚克难,开发出了适应时代潮流、贴合用户需要的新一代工具“一键使用 TUNA” 脚本,又名 `oh-my-tuna` 。它目前支持更改下列软件的配置,将其直接指向 TUNA 镜像站: > > > * Anaconda > * Arch Linux > * TeX Live (by tlmgr) > * Debian GNU/Linux > * Homebrew > * PyPI > * Ubuntu Linux > > > 您可以选择仅更改当前用户的配置,也可以更改全局配置。如果不满意,随时可以撤销这些更改。这一切,只需要一行命令:`python oh-my-tuna.py` ! > > > 项目托管在 [TUNA 主页](https://tuna.moe/oh-my-tuna) 上,您也可以访问 [GitHub](https://github.com/tuna/oh-my-tuna) 阅读源码、获取更详细的说明,也欢迎各位对本项目作出贡献! > > > 在将来,我们的目标是将其支持的系统/软件范围进一步扩展到(包括且不限于): > > > * TUNA 镜像的尽可能多的系统/软件 > * Macrohard<sup> TM</sup> Windoge<sup> TM</sup> > * 42 > > > TUNA 成员要紧密团结在会长周围,高举开源精神伟大旗帜,锐意进取,埋头苦干,为实现推进镜像站建设、完成 Linux 发行版统一、维护开源界和平与促进共同发展三大历史任务,为决胜全面建成中国最好的镜像站、夺取新时代开源精神伟大胜利、实现社区伟大复兴的开源梦、实现用户对高速下载的向往继续奋斗! > > >
Linux 初学者:如何在 Ubuntu 中重启网络
Sergiu
https://itsfoss.com/restart-network-ubuntu
很多的问题都可以简单地通过重启服务解决。在这篇文章中,我会介绍在 Ubuntu 或者其他 Linux 发行版中重启网络的几种方法,你可以根据自身需要选择对应的方法。
/data/attachment/album/201905/01/232221k60oq2d7guzuu82u.png.thumb.jpg
/data/attachment/album/201905/01/232221k60oq2d7guzuu82u.png
true
false
true
lujun9972
bodhix
wxy
false
[ "网络" ]
技术
{ "viewnum": 41515, "commentnum": 0, "favtimes": 2, "sharetimes": 0, "likes": 0 }
[]
[]
很多的问题都可以简单地通过重启服务解决。在这篇文章中,我会介绍在 Ubuntu 或者其他 Linux 发行版中重启网络的几种方法,你可以根据自身需要选择对应的方法。
2019-05-01T23:20:00
2019-05-01T23:20:00
10,804
/article-10804-1.html
你[是否正在使用基于 Ubuntu 的系统,然后发现无法连接网络](https://itsfoss.com/fix-no-wireless-network-ubuntu/)?你一定会很惊讶,很多的问题都可以简单地通过重启服务解决。 在这篇文章中,我会介绍在 Ubuntu 或者其他 Linux 发行版中重启网络的几种方法,你可以根据自身需要选择对应的方法。这些方法基本分为两类: ![Ubuntu Restart Network](/data/attachment/album/201905/01/232221k60oq2d7guzuu82u.png) ### 通过命令行方式重启网络 如果你使用的 Ubuntu 服务器版,那么你已经在使用命令行终端了。如果你使用的是桌面版,那么你可以通过快捷键 `Ctrl+Alt+T` [Ubuntu 键盘快捷键](https://itsfoss.com/ubuntu-shortcuts/) 打开命令行终端。 在 Ubuntu 中,有多个命令可以重启网络。这些命令,一部分或者说大部分,也适用于在 Debian 或者其他的 Linux 发行版中重启网络。 #### 1、network manager 服务 这是通过命令行方式重启网络最简单的方法。它相当于是通过图形化界面重启网络(重启 Network-Manager 服务)。 ``` sudo service network-manager restart ``` 此时,网络图标会消失一会儿然后重新显示。 #### 2、systemd `service` 命令仅仅是这个方式的一个封装(同样的也是 init.d 系列脚本和 Upstart 相关命令的封装)。`systemctl` 命令的功能远多于 `service` 命令。通常我更喜欢使用这个命令。 ``` sudo systemctl restart NetworkManager.service ``` 这时,网络图标又会消失一会儿。 如果你想了解 `systemctl` 的其他选项, 可以参考 man 帮助文档。 #### 3、nmcli 这是 Linux 上可以管理网络的另一个工具。这是一个功能强大而且实用的工具。很多系统管理员都喜欢使用该工具,因为它非常容易使用。 这种方法有两个操作步骤:关闭网络,再开启网络。 ``` sudo nmcli networking off ``` 这样就会关闭网络,网络图标会消失。接下来,再开启网络: ``` sudo nmcli networking on ``` 你可以通过 man 帮助文档了解 nmcli 的更多用法。 #### 4、ifup & ifdown 这两个命令直接操作网口,切换网口是否可以收发包的状态。这是 [Linux 中最应该了解的网络命令](https://itsfoss.com/basic-linux-networking-commands/) 之一。 使用 `ifdown` 关闭所有网口,再使用 `ifup` 重新启用网口。 通常推荐的做法是将这两个命令一起使用。 ``` sudo ifdown -a && sudo ifup -a ``` 注意:这种方法不会让网络图标从系统托盘中消失,另外,各种网络连接也会断。 #### 补充工具: nmtui 这是系统管理员们常用的另外一种方法。它是在命令行终端中管理网络的文本菜单工具。 ``` nmtui ``` 打开如下菜单: ![nmtui Menu](/data/attachment/album/201905/01/232042duy2ebfymumu5hqu.png) 注意:在 nmtui 中,可以通过 `up` 和 `down` 方向键选择选项。 选择 “Activate a connection”: ![nmtui Menu Select "Activate a connection"](/data/attachment/album/201905/01/232045w0ckccy3kuluyly4.png) 按下回车键,打开 “connections” 菜单。 ![nmtui Connections Menu](/data/attachment/album/201905/01/232046p19mks93mkjlnjum.png) 接下来,选择前面带星号(\*)的网络。在这个例子中,就是 MGEO72。 ![Select your connection in the nmtui connections menu.](/data/attachment/album/201905/01/232048yzwxdagdj3ahvivn.png) 按下回车键。 这就将“停用”你的网络连接。 ![nmtui Connections Menu with no active connection](/data/attachment/album/201905/01/232050xr6yrokjkqb9qvua.png) 选择你要连接的网络: ![Select the connection you want in the nmtui connections menu.](/data/attachment/album/201905/01/232053z27eec6d675sd31x.png) 按下回车键。这样就重新激活了所选择的网络连接。 ![nmtui Connections Menu](/data/attachment/album/201905/01/232054knr2tktc29nnkl4z.png) 按下 `Tab` 键两次,选择 “Back”: ![Select "Back" in the nmtui connections menu.](/data/attachment/album/201905/01/232056rndjb2szj1o77jwg.png) 按下回车键,回到 nmtui 的主菜单。 ![nmtui Main Menu](/data/attachment/album/201905/01/232058mlj4y4oxji0konok.png) 选择 “Quit” : ![nmtui Quit Main Menu](/data/attachment/album/201905/01/232100auszwtzmtx76667x.png) 退出该界面,返回到命令行终端。 就这样,你已经成功重启网络了。 ### 通过图形化界面重启网络 显然,这是 Ubuntu 桌面版用户重启网络最简单的方法。如果这个方法不生效,你可以尝试使用前文提到的命令行方式重启网络。 NM 小程序是 [NetworkManager](https://wiki.gnome.org/Projects/NetworkManager) 的系统托盘程序标志。我们将使用它来重启网络。 首先,查看顶部状态栏。你会在系统托盘找到一个网络图标 (因为我使用 Wi-Fi,所以这里是一个 Wi-Fi 图标)。 接下来,点击该图标(也可以点击音量图标或电池图标)。打开菜单。选择 “Turn Off” 关闭网络。 ![Restart network in Ubuntu](/data/attachment/album/201905/01/232102agaf6luf4l4caaxw.jpg) 网络图标会在状态栏中消失,这表示你已经成功关闭网络了。 再次点击系统托盘重新打开菜单,选择 “Turn On”,重新开启网络。 ![Restarting network in Ubuntu](/data/attachment/album/201905/01/232105gggw0ywwp8nddbud.jpg) 恭喜!你现在已经重启你的网络了。 #### 其他提示:刷新可用网络列表 如果你已经连接上一个网络,但是你想连接到另外一个网络,你如何刷新 WiFi 列表,查找其他可用的网络呢?我来向你展示一下。 Ubuntu 没有可以直接 “刷新 WiFi 网络” 的选项,它有点隐蔽。 你需要再次打开配置菜单,然后点击 “Select Network” 。 ![Refresh wifi network list in Ubuntu](/data/attachment/album/201905/01/232106qvw92r7sqwwtzp9p.jpg) 选择对应的网络修改你的 WiFi 连接。 你无法马上看到可用的无线网络列表。打开网络列表之后,大概需要 5 秒才会显示其它可用的无线网络。 ![Select another wifi network in Ubuntu](/data/attachment/album/201905/01/232109oz8sz1uuo6rovvou.jpg) 等待大概 5 秒钟,看到其他可用的网络。 现在,你就可以选择你想要连接的网络,点击连接。这样就完成了。 ### 总结 重启网络连接是每个 Linux 用户在使用过程中必须经历的事情。 我们希望这些方法可以帮助你处理这样的问题! 你是如何重启或管理你的网络的?我们是否还有遗漏的?请在下方留言。 --- via: <https://itsfoss.com/restart-network-ubuntu> 作者:[Sergiu](https://itsfoss.com/author/sergiu/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[bodhix](https://github.com/bodhix) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
每日安全资讯:60% 的企业代码库包含开源漏洞
安华金和
在黑鸭审查的所有代码库中,有 96% 包含了开源组件,而大多数没有开源代码的代码库其实包含不到 1000 个文件。在超过 1000 个文件的代码库中,开源代码的采用率高达 99%。
/data/attachment/album/201905/02/104256wwzsla6iz5saa6ja.jpg.thumb.jpg
/data/attachment/album/201905/02/104256wwzsla6iz5saa6ja.jpg
true
false
false
false
[ "安全", "开源软件" ]
每日安全资讯
{ "viewnum": 5191, "commentnum": 2, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[ { "postip": "221.230.124.174", "message": "更多资讯第二条标题没标记对。", "username": "来自江苏镇江的 Chrome 73.0|Windows 10 用户", "date": "2019-05-03T12:08:11" }, { "postip": "61.186.20.160", "message": "感谢!", "username": "linux [Chrome 74.0|Mac 10.14]", "date": "2019-05-06T22:24:42" } ]
[]
在黑鸭审查的所有代码库中,有 96% 包含了开源组件,而大多数没有开源代码的代码库其实包含不到 1000 个文件。在超过 1000 个文件的代码库中,开源代码的采用率高达 99%。
2019-05-02T10:43:00
2019-05-02T10:43:00
10,806
/article-10806-1.html
![](/data/attachment/album/201905/02/104256wwzsla6iz5saa6ja.jpg) 近日,<ruby> 黑鸭软件 <rp> ( </rp> <rt> Black Duck Software </rt> <rp> ) </rp></ruby>发布了开源安全与风险分析(OSSRA)年度报告,报告对 2018 年以来 1200 多个商业代码库的匿名数据进行了分析和研究。对当今的企业来说,开源软件、库和组件往往起着重要的作用。开源代码采用率高有许多原因,其中包括开源社区的许多程序员愿意为项目贡献时间、项目代码的透明性、以及比开发内部系统更少的实现时间等。 在黑鸭审查的所有代码库中,有 96% 包含了开源组件,而大多数没有开源代码的代码库其实包含不到 1000 个文件。在超过 1000 个文件的代码库中,开源代码的采用率高达 99%。 ![](/data/attachment/album/201905/02/104026z96g3yu6udwgz93c.jpg) 开源代码有着它的安全优势,但也存在着安全漏洞未修补的隐患,开发人员可能没意识到项目正在被安全漏洞影响。在报告审查的代码库中,至少包含一个漏洞的代码库占 60% ,这个数字比 2017 年统计的结果 78% 有所下降。 黑鸭认为,发现的漏洞有 40% 都是关键级的。“事实上,开源并不总是更安全。”报告指出,无论项目源码是专有的还是开源的,都可能因为漏洞的存在,安全性变得薄弱。项目人员应该及时加以识别和修补这些漏洞。 报告中发现漏洞的平均“年龄”为 6.6 岁。其中,最老的 CVE-2000-0388 是 FreeBSD libmytinfo 库中的缓冲区溢出漏洞,在 28 年前被披露。报告结果显示,有 43% 的代码库包含一个超过 10 年的 bug。这表明不少企业可能没意识到开源的用处,也没有对组件目录进行系统管理,这些软件没有打新的补丁,更容易被攻击。 “一般只有少数开源漏洞,比如那些影响 ApacheStruts 或 OpenSSL 的漏洞,有可能被广泛利用。”研究人员表示,项目组织应该把他们的开源漏洞管理和缓解工作的重点放在 cvss 评分和漏洞的可用性上,在关注 “0day” 的同时,也应该关注开源组件的生命周期。 来源:开源中国 ### 更多资讯 ##### 黑客届“奥斯卡”来了!国际安全技术大牛 5 月底齐聚北京 随着网络安全问题越来越引发全球关注,对黑客、安全漏洞等话题感兴趣的极客和技术爱好者们将在北京迎来盛会。有黑客界“奥斯卡”之称的 DEF CON 近日宣布,即将举办 DEF CON CHINA Baidu 安全行业国际峰会,5月31日至6月2日,数千名全球安全技术大牛将齐聚北京 751D·PARK,同台切磋技艺。 来源: 北京日报客户端 详情: <http://t.cn/ESl6YeJ> ##### 还在随便下载软件?CNCERT 公布 116 个高危恶意程序 2019 年 2 月期间,国家互联网应急中心(简称“CNCERT”)在全国范围内继续开展计算机恶意程序传播渠道安全监测工作,对已备案的计算机软件下载站进行安全监测,判定计算机恶意程序 216 个,其中高危恶意程序 116 个,涉及 8 个省份的 11 家软件下载站及应用商店。2019 年 4 月下旬,CNCERT 将本次监测结果形成报告对外发布。 来源: FreeBuf.COM 详情: <http://t.cn/ESl6mGB> ##### 阿桑奇在英被判 50 周监禁处罚 据英国“天空新闻”刚刚消息,维基解密创始人阿桑奇在英被判50个星期监禁。“你曾有一个选择,你选择的行动就是犯罪,”该法院法官德博拉·泰勒在法庭上说,“你没有心甘情愿地投向......你不会自愿到法院来。”随后,泰勒宣布阿桑奇被判“50 周监禁”。 来源: 环球科技 详情: <http://t.cn/ESlXhc5> ##### Windows 10 的安全功能使得基于 Chromium 的浏览器运行慢了三倍多 正如 Vivaldi 开发人员所揭示的那样,Windows 10 中内置的安全功能使基于 Chromium 的浏览器在测试环境中的速度降低了三倍多。Yngve Pettersen 在博客文章中解释说,开发人员在将 Windows 10 测试人员添加到 Windows 单元测试集群时发现了这个性能问题。 来源: cnBeta.COM 详情: <http://t.cn/ESlXLjD> (信息来源于网络,安华金和搜集整理)
使用 Python 和 Prometheus 跟踪天气
Moshe Zadka
https://opensource.com/article/19/4/weather-python-prometheus
创建自定义 Prometheus 集成以跟踪最大的云端提供商:地球母亲。
/data/attachment/album/201905/03/131641zrunsntko3onnzlp.png.thumb.jpg
/data/attachment/album/201905/03/131641zrunsntko3onnzlp.png
true
false
true
lujun9972
geekpi
wxy
false
[ "天气", "Prometheus" ]
软件开发
{ "viewnum": 5475, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
创建自定义 Prometheus 集成以跟踪最大的云端提供商:地球母亲。
2019-05-03T13:16:25
2019-05-03T13:16:25
10,807
/article-10807-1.html
> > 创建自定义 Prometheus 集成以跟踪最大的云端提供商:地球母亲。 > > > ![Tree clouds](/data/attachment/album/201905/03/131641zrunsntko3onnzlp.png "Tree clouds") 开源监控系统 [Prometheus](https://prometheus.io/) 集成了跟踪多种类型的时间序列数据,但如果没有集成你想要的数据,那么很容易构建一个。一个经常使用的例子使用云端提供商的自定义集成,它使用提供商的 API 抓取特定的指标。但是,在这个例子中,我们将与最大云端提供商集成:地球。 幸运的是,美国政府已经测量了天气并为集成提供了一个简单的 API。获取红帽总部下一个小时的天气预报很简单。 ``` import requests HOURLY_RED_HAT = "<https://api.weather.gov/gridpoints/RAH/73,57/forecast/hourly>" def get_temperature(): result = requests.get(HOURLY_RED_HAT) return result.json()["properties"]["periods"][0]["temperature"] ``` 现在我们已经完成了与地球的集成,现在是确保 Prometheus 能够理解我们想要内容的时候了。我们可以使用 [Prometheus Python 库](https://github.com/prometheus/client_python)中的 gauge 创建一个注册项:红帽总部的温度。 ``` from prometheus_client import CollectorRegistry, Gauge def prometheus_temperature(num): registry = CollectorRegistry() g = Gauge("red_hat_temp", "Temperature at Red Hat HQ", registry=registry) g.set(num) return registry ``` 最后,我们需要以某种方式将它连接到 Prometheus。这有点依赖 Prometheus 的网络拓扑:是 Prometheus 与我们的服务通信更容易,还是反向更容易。 第一种是通常建议的情况,如果可能的话,我们需要构建一个公开注册入口的 Web 服务器,并配置 Prometheus 收刮(scrape)它。 我们可以使用 [Pyramid](https://trypyramid.com/) 构建一个简单的 Web 服务器。 ``` from pyramid.config import Configurator from pyramid.response import Response from prometheus_client import generate_latest, CONTENT_TYPE_LATEST def metrics_web(request): registry = prometheus_temperature(get_temperature()) return Response(generate_latest(registry), content_type=CONTENT_TYPE_LATEST) config = Configurator() config.add_route('metrics', '/metrics') config.add_view(metrics_web, route_name='metrics') app = config.make_wsgi_app() ``` 这可以使用任何 Web 网关接口(WSGI)服务器运行。例如,假设我们将代码放在 `earth.py` 中,我们可以使用 `python -m twisted web --wsgi earth.app` 来运行它。 或者,如果我们的代码连接到 Prometheus 更容易,我们可以定期将其推送到 Prometheus 的[推送网关](https://github.com/prometheus/pushgateway)。 ``` import time from prometheus_client import push_to_gateway def push_temperature(url): while True: registry = prometheus_temperature(get_temperature()) push_to_gateway(url, "temperature collector", registry) time.sleep(60*60) ``` 这里的 URL 是推送网关的 URL。它通常以 `:9091` 结尾。 祝你构建自定义 Prometheus 集成成功,以便跟踪一切! --- via: <https://opensource.com/article/19/4/weather-python-prometheus> 作者:[Moshe Zadka](https://opensource.com/users/moshez) 选题:[lujun9972](https://github.com/lujun9972) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
System76 是如何打造开源硬件的
Don Watkins
https://opensource.com/article/19/4/system76-hardware
是什么让新的 Thelio 台式机系列与众不同。
/data/attachment/album/201905/03/140723qhk4hp4n7h4v6zhh.png.thumb.jpg
/data/attachment/album/201905/03/140723qhk4hp4n7h4v6zhh.png
true
false
true
lujun9972
warmfrog
wxy
false
[ "System76", "开源硬件" ]
观点
{ "viewnum": 5026, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
是什么让新的 Thelio 台式机系列与众不同。
2019-05-03T14:07:31
2019-05-03T14:07:31
10,808
/article-10808-1.html
> > 是什么让新的 Thelio 台式机系列与众不同。 > > > ![](/data/attachment/album/201905/03/140723qhk4hp4n7h4v6zhh.png) 大多数人对他们电脑的硬件一无所知。作为一个长期的 Linux 用户,当我想让我的无线网卡、视频卡、显示器和其他硬件与我选择的发行版共同运行时,也一样遇到了挫折。商业品牌的硬件通常使判断这些问题变得很困难:为什么以太网驱动、无线驱动或者鼠标驱动和我们预期的不太一样?随着 Linux 发行版变得成熟,这可能不再是问题,但是我们仍能发现触控板和其它外部设备的怪异行为,尤其是当我们对底层的硬件知道的不多时。 像 [System76](https://system76.com/) 这样的公司致力于解决这些问题,以提升 Linux 用户体验。System76 生产了一系列的 Linux 笔记本、台式机和服务器,甚至提供了它自己的 Linux 发行版 [Pop! OS](https://opensource.com/article/18/1/behind-scenes-popos-linux) 作为客户的一个选择。最近我有幸参观了 System76 在 Devnver 的工厂并揭开它的新台式机产品线 [Thelio](https://system76.com/desktops) [的神秘面纱](https://system76.com/desktops)。 ### 关于 Thelio System76 宣称 Thelio 的开源硬件子板(被命名为木星之后的第 5 个卫星的名字 Thelio Io)是它在市场上独特的特点之一。Thelio Io 取得了开源硬件协会的认证 [OSHWA #us000145](https://certification.oshwa.org/us000145.html),并且有 4 个用于存储的 SATA 端口和一个控制风扇和用于电源按钮控制的嵌入式控制器。Thelio IO SAS 取得了 [OSHWA #us000146](https://certification.oshwa.org/us000146.html) 认证,并且有 4 个用于存储的 U.2 端口,没有嵌入式控制器。在展示时,System76 显示了这些组件如何调整风扇通过底盘来优化部件的性能。 该控制器还管理电源键,和围绕该电源键的 LED 光环,当被按下时它以 100% 的亮度发光。这提供了触觉和视觉上的确认:该主机已经启动电源了。当电脑在使用中,该按钮被设置为 35% 的亮度,当在睡眠模式,它的亮度在 2.35% 和 25% 之间跳动。当计算机关闭后,LED 保持朦胧的亮度,因此能够在黑暗的房间里找到电源控制。 Thelio 的嵌入式控制器是一个低功耗的 [ATmega32U4](https://www.microchip.com/wwwproducts/ATmega32u4) 微控制器,并且控制器的设置可以使用 Arduino Micro 进行原型设计。Thelio Io 主板变化的多少取决于你购买哪种 Thelio 型号。 Thelio 可能是我见过的设计的最好的电脑机箱和系统。如果你曾经亲身体验过在一个常规的 PC 的内部进行操作的话,你可能会同意我的观点。我已经做了很多次了,因此我能以自己过往的糟糕经历来证明这点。 ### 为什么做开源硬件? 该主板是在 [KiCAD](http://kicad-pcb.org/) 设计的,你可以在 [GitHub](https://github.com/system76/thelio-io) 上按 GPL 许可证访问 Thelio 所有的设计文件。因此,为什么一个与其他 PC 制造商竞争的公司会设计一个独特的接口并公开授权呢?可能是该公司认识到开源设计及根据你的需要调整和分享一个 I/O 主板设计的能力的价值,即便你是市场上的竞争者。 ![在 Thelio 启动时 Don Watkins 与 System76 的 CEO Carl Richell 谈话](/data/attachment/album/201905/03/140738u7shdetwdoostzsp.jpg "Don Watkins speaks with System76 CEO Carl Richell at the Thelio launch event.") *在 [Thelio 发布会](https://trevgstudios.smugmug.com/System76/121418-Thelio-Press-Event/i-FKWFxFv) Don Watkins 与 System76 的 CEO Carl Richell 谈话。* 我问 System76 的设计者和 CEO [Carl Richell](https://www.linkedin.com/in/carl-richell-9435781),该公司是否担心过公开许可它的硬件设计意味着有人可以采取它的独特设计并用它来将 System76 驱逐出市场。他说: > > 开源硬件对我们所有人都有益。这是我们未来提升技术的方式,并且使得每个人获取技术更容易。我们欢迎任何想要提高 Thelio 设计的人来这么做。开源该硬件不仅可以帮助我们更快的改进我们的电脑,并且能够使我们的消费者 100% 信任他们的设备。我们的目标是尽可能地移除专利功能,同时仍然能够为消费者提供一个有竞争力的 Linux 主机。 > > > 我们已经与 Linux 社区一起合作了 13 年之久,来为我们的笔记本、台式机、服务器创造一个完美顺滑的体验。我们长期专注于为 Linux 社区提供服务,提供给我们的客户高水准的服务,我们的个性使 System76 变得独特。 > > > 我还问 Carl 为什么开源硬件对 System76 和 PC 市场是有意义的。他回复道: > > System76 创立之初的想法是技术应该对每个人是开放和可获取的。我们还没有到达 100% 开源创造一个电脑的程度,但是有了开源硬件,我们迈出了接近目标的必不可少的一大步。 > > > 我们生活在技术变成工具的时代。计算机在各级教育和很多行业当中是人们的工具。由于每个人特定的需要,每个人对于如何提升电脑和软件作为他们的主要工具有他们自己的想法。开源我们的计算机可以让这些想法成为现实,从而反过来促进技术成为一个更强大的工具。在一个开源环境中,我们持续迭代来生产更好的 PC。这有点酷。 > > > 我们总结了我们讨论的关于 System76 技术路线的对话,包含了开源硬件 mini PC,甚至是笔记本。在 System76 品牌下的已售出的 mini PC 和笔记本是由其他供应商制造的,并不是基于开源硬件的(尽管它们用的是 Linux 软件,是开源的)。 设计和支持开放式硬件是 PC 产业中的变革者,也正是它造就了 System76 的新 Thelio 台式机电脑产品线的不同。 --- via: <https://opensource.com/article/19/4/system76-hardware> 作者:[Don Watkins](https://opensource.com/users/don-watkins) 选题:[lujun9972](https://github.com/lujun9972) 译者:[warmfrog](https://github.com/warmfrog) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
命令行技巧:分割文件内容
Stephen Snow
https://fedoramagazine.org/command-line-quick-tips-cutting-content-out-of-files/
本文是向你展示一些常见命令行实用程序的系列文章的一部分。让我们进入 shell 来看看 cut。
/data/attachment/album/201905/03/162149iwhwrrgfrpaowrwp.jpg.thumb.jpg
/data/attachment/album/201905/03/162149iwhwrrgfrpaowrwp.jpg
true
false
true
lujun9972
MjSeven
wxy
false
[ "cut" ]
技术
{ "viewnum": 4595, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
本文是向你展示一些常见命令行实用程序的系列文章的一部分。让我们进入 shell 来看看 cut。
2019-05-03T16:21:45
2019-05-03T16:21:45
10,809
/article-10809-1.html
![](/data/attachment/album/201905/03/162149iwhwrrgfrpaowrwp.jpg) Fedora 发行版是一个功能齐全的操作系统,有出色的图形化桌面环境。用户可以很容易地通过单击动作来完成任何典型任务。所有这些美妙的易用性掩盖了其底层强大的命令行细节。本文是向你展示一些常见命令行实用程序的系列文章的一部分。让我们进入 shell 来看看 `cut`。 通常,当你在命令行中工作时,你处理的是文本文件。有时这些文件可能很长,虽然可以完整地阅读它们,但是可能会耗费大量时间,并且容易出错。在本文中,你将学习如何从文本文件中提取内容,并从中获取你所需的信息。 重要的是要意识到,在 Fedora 中有许多方法可以完成类似的命令行任务。例如,Fedora 仓库含有用于解析和处理文本的完整语言系统。此外,还有多个命令行实用程序可用于 shell 中任何可能的用途。本文只关注使用其中几个实用程序选项,从文件中提取一些信息并以可读的格式呈现。 ### cut 使用 为了演示这个例子,在系统上使用一个标准的大文件,如 `/etc/passwd`。正如本系列的前一篇文章所示,你可以执行 `cat` 命令来查看整个文件: ``` $ cat /etc/passwd root:x:0:0:root:/root:/bin/bash bin:x:1:1:bin:/bin:/sbin/nologin daemon:x:2:2:daemon:/sbin:/sbin/nologin adm:x:3:4:adm:/var/adm:/sbin/nologin ... ``` 此文件包含系统上所有所有账户的信息。它有一个特定的格式: ``` name:password:user-id:group-id:comment:home-directory:shell ``` 假设你只想要系统上所有账户名的列表,如果你只能从每一行中删除 “name” 值。这就是 `cut` 命令派上用场的地方!它一次处理一行输入,并提取该行的特定部分。 `cut` 命令提供了以不同方式选择一行的部分的选项,在本示例中需要两个,`-d` 和 `-f`。`-d` 选项允许你声明用于分隔行中值的分隔符。在本例中,冒号(`:`)用于分隔值。`-f` 选项允许你选择要提取哪些字段值。因此,在本例中,输入的命令是: ``` $ cut -d: -f1 /etc/passwd root bin daemon adm ... ``` 太棒了,成功了!但是你将输出打印到标准输出,在终端会话中意味着它需要占据屏幕。如果你需要稍后完成另一项任务所需的信息,这该怎么办?如果有办法将 `cut` 命令的输出保存到文本文件中,那就太好了。对于这样的任务,shell 有一个简单的内置功能,重定向功能(`>`)。 ``` $ cut -d: -f1 /etc/passwd > names.txt ``` 这会将 `cut` 的输出放到一个名为 `names.txt` 的文件中,你可以使用 `cat` 来查看它的内容: ``` $ cat names.txt root bin daemon adm ... ``` 使用两个命令和一个 shell 功能,可以很容易地使用 `cat` 从一个文件进行识别、提取和重定向一些信息,并将其保存到另一个文件以供以后使用。 --- via: <https://fedoramagazine.org/command-line-quick-tips-cutting-content-out-of-files/> 作者:[Stephen Snow](https://fedoramagazine.org/author/jakfrost/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[MjSeven](https://github.com/MjSeven) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
每日安全资讯:Weblogic 0day 漏洞正被攻击者利用安装勒索软件
安华金和
研究人员公开了漏洞细节,随后该漏洞观察到被攻击者利用挖掘数字货币,以及安装勒索软件,整个过程无需任何点击或互动。
/data/attachment/album/201905/03/162921aojkuet890cn0jly.png.thumb.jpg
/data/attachment/album/201905/03/162921aojkuet890cn0jly.png
true
false
false
false
[ "Weblogic" ]
每日安全资讯
{ "viewnum": 2945, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
研究人员公开了漏洞细节,随后该漏洞观察到被攻击者利用挖掘数字货币,以及安装勒索软件,整个过程无需任何点击或互动。
2019-05-03T16:29:00
2019-05-03T16:29:00
10,810
/article-10810-1.html
![](/data/attachment/album/201905/03/162921aojkuet890cn0jly.png) 中国安全研究人员在 4 月 18 日披露了甲骨文刚刚修复的一个高危漏洞:Weblogic 反序列化漏洞(CVE-2018-2628)。安全研究人员是在去年 11 月将漏洞报告给了甲骨文,漏洞允许攻击者在未授权的情况下远程执行任意代码。 漏洞影响 Weblogic 10.3.6.0、12.1.3.0、12.2.1.2 和 12.2.1.3。研究人员公开了漏洞细节,随后该漏洞观察到被攻击者利用挖掘数字货币,以及安装勒索软件,整个过程无需任何点击或互动。 Cisco Talos 的研究人员报告,该漏洞至少从 4 月 21 日起就被活跃利用。攻击者被发现在尚未修复的计算机上安装一种新的勒索软件叫 Sodinokibi,除了加密重要的数据,该勒索软件还尝试毁掉备份,防止受害者简单利用备份恢复加密的数据。 奇怪的是,攻击者随后还利用相同的漏洞安装了另一种勒索软件叫 GandCrab。 来源:solidot.org ### 更多资讯 ##### 英国防大臣因泄露有关华为信息被开除,曾扬言派航母到南海 参考消息网 5 月 2 日报道 英媒称,英国首相特雷莎·梅办公室1日表示,英国国防大臣加文·威廉姆森因泄露有关中国电信公司华为的信息而被解雇。 来源: 参考消息 详情: <http://t.cn/ESR5q9D> ##### 俄总统签署防范紧急状态下外部“断网”风险的法律 俄罗斯总统普京 5 月 1 日签署法律文件,以确保俄罗斯互联网在遭遇外部“断网”等冲击时仍能稳定运行。俄罗斯媒体 1 日报道说,根据普京签署的法律,俄罗斯将建立本国的域名系统,即存储和获取网络地址及域名信息的系统。 来源: 新华网 详情: <http://t.cn/ESR5Ioo> ##### 日本欲开发电脑病毒来抵御网络攻击 据外媒报道,消息人士称,日本将在明年 3 月之前开发出首个用于抵御网络攻击的电脑病毒。消息人士周一表示,日本防卫省正在考虑一种能够侵入电脑系统的恶意软件,希望借此起到威慑网络攻击的作用。 来源: cnBeta.COM 详情: <http://t.cn/ESRtwEF> ##### 助力线上隐私保护:DuckDuckGo提出《请勿追踪》立法草案 注重用户隐私安全的 DuckDuckGo,刚刚宣布了一份《2019 请勿追踪》草案。尽管不会很快成为正式的法律,但 DuckDuckGo 还是希望此举能够敦促网站尊重用户的“Do-Not-Track”选项设置,成为国内外立法机构通过此类隐私法案的一个参考起点。今年早些时候,DuckDuckGo 进行了一项研究,发现 1/4 的用户已经开启了“请勿追踪”的设置,约为 7500 万美国人和 1.15 亿欧盟公民。 来源: cnBeta.COM 详情: <http://t.cn/ESRtGiC> (信息来源于网络,安华金和搜集整理)
如何在 Linux 上安装、配置 NTP 服务器和客户端?
Magesh Maruthamuthu
https://www.2daygeek.com/install-configure-ntp-server-ntp-client-in-linux/
你也许听说过这个词很多次或者你可能已经在使用它了。在这篇文章中我将会清晰的告诉你 NTP 服务器和客户端的安装。
/data/attachment/album/201905/04/133902vgsu92v0nyyn0bwz.jpg.thumb.jpg
/data/attachment/album/201905/04/133902vgsu92v0nyyn0bwz.jpg
true
false
true
lujun9972
arrowfeng
wxy
false
[ "NTP", "时间" ]
系统运维
{ "viewnum": 25495, "commentnum": 0, "favtimes": 1, "sharetimes": 0, "likes": 0 }
[]
[ { "raid": 10820, "displayorder": 0 } ]
你也许听说过这个词很多次或者你可能已经在使用它了。在这篇文章中我将会清晰的告诉你 NTP 服务器和客户端的安装。
2019-05-04T13:39:17
2019-05-04T13:39:17
10,811
/article-10811-1.html
![](/data/attachment/album/201905/04/133902vgsu92v0nyyn0bwz.jpg) 你也许听说过这个词很多次或者你可能已经在使用它了。在这篇文章中我将会清晰的告诉你 NTP 服务器和客户端的安装。 之后我们将会了解 **[Chrony NTP 客户端的安装](https://www.2daygeek.com/configure-ntp-client-using-chrony-in-linux/)**。 ### 什么是 NTP 服务? NTP 意即<ruby> 网络时间协议 <rt> Network Time Protocol </rt></ruby>。它是通过网络在计算机系统之间进行时钟同步的网络协议。换言之,它可以让那些通过 NTP 或者 Chrony 客户端连接到 NTP 服务器的系统保持时间上的一致(它能保持一个精确的时间)。 NTP 在公共互联网上通常能够保持时间延迟在几十毫秒以内的精度,并在理想条件下,它能在局域网下达到低于一毫秒的延迟精度。 它使用用户数据报协议(UDP)在端口 123 上发送和接受时间戳。它是个 C/S 架构的应用程序。 ### NTP 客户端 NTP 客户端将其时钟与网络时间服务器同步。 ### Chrony 客户端 Chrony 是 NTP 客户端的替代品。它能以更精确的时间更快的同步系统时钟,并且它对于那些不总是在线的系统很有用。 ### 为什么我们需要 NTP 服务? 为了使你组织中的所有服务器与基于时间的作业保持精确的时间同步。 为了说明这点,我将告诉你一个场景。比如说,我们有两个服务器(服务器 1 和服务器 2)。服务器 1 通常在 10:55 完成离线作业,然后服务器 2 在 11:00 需要基于服务器 1 完成的作业报告去运行其他作业。 如果两个服务器正在使用不同的时间(如果服务器 2 时间比服务器 1 提前,服务器 1 的时间就落后于服务器 2),然后我们就不能去执行这个作业。为了达到时间一致,我们应该安装 NTP。 希望上述能清除你对于 NTP 的疑惑。 在这篇文章中,我们将使用下列设置去测试。 * **NTP 服务器:** 主机名:CentOS7.2daygeek.com,IP:192.168.1.8,OS:CentOS 7 * **NTP 客户端:** 主机名:Ubuntu18.2daygeek.com,IP:192.168.1.5,OS:Ubuntu 18.04 ### NTP 服务器端:如何在 Linux 上安装 NTP? 因为它是 C/S 架构,所以 NTP 服务器端和客户端的安装包没有什么不同。在发行版的官方仓库中都有 NTP 安装包,因此可以使用发行版的包管理器安装它。 对于 Fedora 系统,使用 [DNF 命令](https://www.2daygeek.com/dnf-command-examples-manage-packages-fedora-system/) 去安装 ntp。 ``` $ sudo dnf install ntp ``` 对于 Debian/Ubuntu 系统,使用 [APT-GET 命令](https://www.2daygeek.com/apt-get-apt-cache-command-examples-manage-packages-debian-ubuntu-systems/) 或者 [APT 命令](https://www.2daygeek.com/apt-command-examples-manage-packages-debian-ubuntu-systems/) 去安装 ntp。 ``` $ sudo apt install ntp ``` 对基于 Arch Linux 的系统,使用 [Pacman 命令](https://www.2daygeek.com/pacman-command-examples-manage-packages-arch-linux-system/) 去安装 ntp。 ``` $ sudo pacman -S ntp ``` 对 RHEL/CentOS 系统,使用 [YUM 命令](https://www.2daygeek.com/yum-command-examples-manage-packages-rhel-centos-systems/) 去安装 ntp。 ``` $ sudo yum install ntp ``` 对于 openSUSE Leap 系统,使用 [Zypper 命令](https://www.2daygeek.com/zypper-command-examples-manage-packages-opensuse-system/) 去安装 ntp。 ``` $ sudo zypper install ntp ``` ### 如何在 Linux 上配置 NTP 服务器? 安装 NTP 软件包后,请确保在服务器端的 `/etc/ntp.conf` 文件中取消以下配置的注释。 默认情况下,NTP 服务器配置依赖于 `X.distribution_name.pool.ntp.org`。 如果有必要,可以使用默认配置,也可以访问<https://www.ntppool.org/zone/@>站点,根据你所在的位置(特定国家/地区)进行更改。 比如说如果你在印度,然后你的 NTP 服务器将是 `0.in.pool.ntp.org`,并且这个地址适用于大多数国家。 ``` # vi /etc/ntp.conf restrict default kod nomodify notrap nopeer noquery restrict -6 default kod nomodify notrap nopeer noquery restrict 127.0.0.1 restrict -6 ::1 server 0.asia.pool.ntp.org server 1.asia.pool.ntp.org server 2.asia.pool.ntp.org server 3.asia.pool.ntp.org restrict 192.168.1.0 mask 255.255.255.0 nomodify notrap driftfile /var/lib/ntp/drift keys /etc/ntp/keys ``` 我们仅允许 `192.168.1.0/24` 子网的客户端访问这个 NTP 服务器。 由于默认情况下基于 RHEL7 的发行版的防火墙是打开的,因此要允许 ntp 服务通过。 ``` # firewall-cmd --add-service=ntp --permanent # firewall-cmd --reload ``` 更新配置后要重启服务: 对于 sysvinit 系统。基于 Debian 的系统需要去运行 `ntp` 而不是 `ntpd`。 ``` # service ntpd restart # chkconfig ntpd on ``` 对于 systemctl 系统。基于 Debian 的需要去运行 `ntp` 和 `ntpd`。 ``` # systemctl restart ntpd # systemctl enable ntpd ``` ### NTP 客户端:如何在 Linux 上安装 NTP 客户端? 正如我在这篇文章中前面所说的。NTP 服务器端和客户端的安装包没有什么不同。因此在客户端上也安装同样的软件包。 对于 Fedora 系统,使用 [DNF 命令](https://www.2daygeek.com/dnf-command-examples-manage-packages-fedora-system/) 去安装 ntp。 ``` $ sudo dnf install ntp ``` 对于 Debian/Ubuntu 系统,使用 [APT-GET 命令](https://www.2daygeek.com/apt-get-apt-cache-command-examples-manage-packages-debian-ubuntu-systems/) 或者 [APT 命令](https://www.2daygeek.com/apt-command-examples-manage-packages-debian-ubuntu-systems/) 去安装 ntp。 ``` $ sudo apt install ntp ``` 对基于 Arch Linux 的系统,使用 [Pacman 命令](https://www.2daygeek.com/pacman-command-examples-manage-packages-arch-linux-system/) 去安装 ntp。 ``` $ sudo pacman -S ntp ``` 对 RHEL/CentOS 系统,使用 [YUM 命令](https://www.2daygeek.com/yum-command-examples-manage-packages-rhel-centos-systems/) 去安装 ntp。 ``` $ sudo yum install ntp ``` 对于 openSUSE Leap 系统,使用 [Zypper 命令](https://www.2daygeek.com/zypper-command-examples-manage-packages-opensuse-system/) 去安装 ntp。 ``` $ sudo zypper install ntp ``` 我已经在 CentOS7.2daygeek.com` 这台主机上安装和配置了 NTP 服务器,因此将其附加到所有的客户端机器上。 ``` # vi /etc/ntp.conf ``` ``` restrict default kod nomodify notrap nopeer noquery restrict -6 default kod nomodify notrap nopeer noquery restrict 127.0.0.1 restrict -6 ::1 server CentOS7.2daygeek.com prefer iburst driftfile /var/lib/ntp/drift keys /etc/ntp/keys ``` 更新配置后重启服务: 对于 sysvinit 系统。基于 Debian 的系统需要去运行 `ntp` 而不是 `ntpd`。 ``` # service ntpd restart # chkconfig ntpd on ``` 对于 systemctl 系统。基于 Debian 的需要去运行 `ntp` 和 `ntpd`。 ``` # systemctl restart ntpd # systemctl enable ntpd ``` 重新启动 NTP 服务后等待几分钟以便从 NTP 服务器获取同步的时间。 在 Linux 上运行下列命令去验证 NTP 服务的同步状态。 ``` # ntpq –p 或 # ntpq -pn remote refid st t when poll reach delay offset jitter ============================================================================== *CentOS7.2daygee 133.243.238.163 2 u 14 64 37 0.686 0.151 16.432 ``` 运行下列命令去得到 ntpd 的当前状态。 ``` # ntpstat synchronised to NTP server (192.168.1.8) at stratum 3 time correct to within 508 ms polling server every 64 s ``` 最后运行 `date` 命令。 ``` # date Tue Mar 26 23:17:05 CDT 2019 ``` 如果你观察到 NTP 中输出的时间偏移很大。运行下列命令从 NTP 服务器手动同步时钟。当你执行下列命令的时候,确保你的 NTP 客户端应该为未活动状态。(LCTT 译注:当时间偏差很大时,客户端的自动校正需要花费很长时间才能逐步追上,因此应该手动运行以更新) ``` # ntpdate –uv CentOS7.2daygeek.com ``` --- via: <https://www.2daygeek.com/install-configure-ntp-server-ntp-client-in-linux/> 作者:[Magesh Maruthamuthu](https://www.2daygeek.com/author/magesh/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[arrowfeng](https://github.com/arrowfeng) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
什么是 5G?它比 4G 好在哪里?
Josh Fruhlinger
https://www.networkworld.com/article/3203489/what-is-5g-how-is-it-better-than-4g.html
5G 网络将使无线网络吞吐量提高 10 倍并且能够替代有线宽带。但是它们什么时候能够投入使用呢,为什么 5G 和物联网如此紧密地联系在一起呢?
/data/attachment/album/201905/04/142106xaapgq9g9bc99jg6.jpg.thumb.jpg
/data/attachment/album/201905/04/142106xaapgq9g9bc99jg6.jpg
true
false
true
lujun9972
warmfrog
wxy
false
[ "5G", "4G" ]
技术
{ "viewnum": 6027, "commentnum": 2, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[ { "postip": "139.227.171.139", "message": "大量科学证据显示,手机WIFI和5G致癌,只需1uT就可使DNA损伤,而中国的安全标准是40uT。美国财团正在封锁这类消息,北欧国家已经开始制定法律限制5G发展。欧洲5G基站附近大量鸟类死亡事件,玩手机容易打喷嚏就是电磁辐射。", "username": "来自上海的 Firefox 66.0|Windows 10 用户", "date": "2019-05-05T22:42:04" }, { "postip": "27.223.84.74", "message": "哈哈哈!太好笑了!", "username": "绿色圣光 [Firefox 60.0|GNU/Linux]", "date": "2019-05-08T14:14:43" } ]
[]
5G 网络将使无线网络吞吐量提高 10 倍并且能够替代有线宽带。但是它们什么时候能够投入使用呢,为什么 5G 和物联网如此紧密地联系在一起呢?
2019-05-04T14:21:01
2019-05-04T14:21:01
10,812
/article-10812-1.html
> > 5G 网络将使无线网络吞吐量提高 10 倍并且能够替代有线宽带。但是它们什么时候能够投入使用呢,为什么 5G 和物联网如此紧密地联系在一起呢? > > > ![Thinkstock](/data/attachment/album/201905/04/142106xaapgq9g9bc99jg6.jpg) [5G 无线](https://www.networkworld.com/article/3203489/what-is-5g-wireless-networking-benefits-standards-availability-versus-lte.html) 是一个概括的术语,用来描述一系列更快的无线互联网的标准和技术,理论上比 4G 快了 20 倍并且延迟降低了 120 倍,为物联网的发展和对新的高带宽应用的支持奠定了基础。 ### 什么是 5G?科技还是流行词? 这个技术在世界范围内完全发挥它的潜能还需要数年时间,但同时当今一些 5G 网络服务已经投入使用。5G 不仅是一个技术术语,也是一个营销术语,并不是市场上的所有 5G 服务是标准的。 * [来自世界移动大会:[5G 时代即将来到](https://www.networkworld.com/article/3354477/mobile-world-congress-the-time-of-5g-is-almost-here.html)] ### 5G 与 4G 的速度对比 无线技术的每一代,最大的呼吁是增加速度。5G 网络潜在的峰值下载速度可以达到[20 Gbps,一般在 10 Gbps](https://www.networkworld.com/article/3330603/5g-versus-4g-how-speed-latency-and-application-support-differ.html)。这不仅仅比当前 4G 网络更快,4G 目前峰值大约 1 Gbps,并且比更多家庭的有线网络连接更快。5G 提供的网络速度能够与光纤一较高下。 吞吐量不是 5G 仅有的速度提升;它还有的特点是极大降低了网络延迟。这是一个重要的区分:吞吐量用来测量花费多久来下载一个大文件,而延迟由网络瓶颈决定,延迟在往返的通讯中减慢了响应速度。 延迟很难量化,因为它因各种网络状态变化而变化,但是 5G 网络在理想情况下有能力使延迟率在 1 ms 内。总的来说,5G 延迟将比 4G 降低 60 到 120 倍。这会使很多应用变得可能,例如当前虚拟现实的延迟使它变得不实际。 ### 5G 技术 5G 技术的基础有一系列标准定义,在过去的 10 年里一直在研究更好的部分。这些里面最重要的是 5G New Radio(5G NR),由 3GPP(一个为移动电话开发协议的标准化组织)组织标准化。5G NR 规定了很多 5G 设备操作的方式,[于 2018 年 7 月 完成终版](https://www.theverge.com/2018/6/15/17467734/5g-nr-standard-3gpp-standalone-finished)。 很多独特的技术同时出现来尽可能地提升 5G 的速度并降低延迟,下面是一些重要的。 ### 毫米波 5G 网络大部分使用在 30 到 300 GHz 范围的频率。(正如名称一样,这些频率的波长在 1 到 10 毫米之间)这些高频范围能够[在每个时间单元比低频信号携带更多的信息](https://www.networkworld.com/article/3291323/millimeter-wave-wireless-could-help-support-5g-and-iot.html),4G LTE 当前使用的就是通常频率在 1 GHz 以下的低频信号,或者 WiFi,最高 6 GHz。 毫米波技术传统上是昂贵并且难于部署的。科技进步已经克服了这些困难,这也是 5G 在如今成为了可能的原因。 ### 小蜂窝 毫米波传输的一个缺点是当它们传输通过物理对象的时候比 4G 或 WiFi 信号更容易被干扰。 为了克服这些,5G 基础设施的模型将不同于 4G。替代了大的像景观一样移动天线桅杆,5G 网络将由[分布在城市中大概间距 250 米的更小的基站](https://spectrum.ieee.org/video/telecom/wireless/5g-bytes-small-cells-explained)提供支持,创建更小的服务区域。 这些 5G 基站的功率要求低于 4G,并且可以更容易地连接到建筑物和电线杆上。 ### 大量的 MIMO 尽管 5G 基站比 4G 的对应部分小多了,但它们却带了更多的天线。这些天线是[多输入多输出的(MIMO)](https://www.networkworld.com/article/3250268/what-is-mu-mimo-and-why-you-need-it-in-your-wireless-routers.html),意味着在相同的数据信道能够同时处理多个双向会话。5G 网络能够处理比 4G 网络超过 20 倍的会话。 大量的 MIMO 保证了[基站容量限制下的极大提升](https://spectrum.ieee.org/tech-talk/telecom/wireless/5g-researchers-achieve-new-spectrum-efficiency-record),允许单个基站承载更多的设备会话。这就是 5G 可能推动物联网更广泛应用的原因。理论上,更多的连接到互联网的无线设备能够部署在相同的空间而不会使网络被压垮。 ### 波束成形 确保所有的会话来回地到达正确的地方是比较棘手的,尤其是前面提到的毫米波信号的干涉问题。为了克服这些问题,5G 基站部署了更高级的波束技术,使用建设性和破坏性的无线电干扰来使信号有向而不是广播。这在一个特定的方向上有效地加强了信号强度和范围。 ### 5G 可获得性 第一个 5G 商用网络 [2018 年 5 月在卡塔尔推出](https://venturebeat.com/2018/05/14/worlds-first-commercial-5g-network-launches-in-qatar/)。自那以后,5G 网络已经扩展到全世界,从阿根廷到越南。[Lifewire 有一个不错的,经常更新的列表](https://www.lifewire.com/5g-availability-world-4156244). 牢记一点的是,尽管这样,目前不是所有的 5G 网络都履行了所有的技术承诺。一些早期的 5G 产品依赖于现有的 4G 基础设施,减少了可以获得的潜在速度;其它服务为了市场目的而标榜 5G 但是并不符合标准。仔细观察美国无线运营商的产品都会发现一些陷阱。 ### 无线运营商和 5G 技术上讲,5G 服务如今在美国已经可获得了。但声明中包含的注意事项因运营商而异,表明 5G 普及之前还有很长的路要走。 Verizon 可能是早期 5G 最大的推动者。它宣告到 2018 年 10 月 将有 4 个城市成为 [5G 家庭](https://www.digitaltrends.com/computing/verizon-5g-home-promises-up-to-gigabit-internet-speeds-for-50/)的一部分,这是一项需要你的其他设备通过 WiFi 来连接特定的 5G 热点,由热点连接到网络的服务。 Verizon 计划四月在 [Minneapolis 和 Chicago 发布 5G 移动服务](https://lifehacker.com/heres-your-cheat-sheet-for-verizons-new-5g-data-plans-1833278817),该服务将在这一年内传播到其他城市。访问 5G 网络将需要消费者每月额外花费费用,加上购买能够实际访问 5G 的手机花费(稍后会详细介绍)。另外,Verizon 的部署被称作 [5G TF](https://www.theverge.com/2018/10/2/17927712/verizon-5g-home-internet-real-speed-meaning),实际上不符合 5G NR 的标准。 AT&T [声明在 2018 年 12 月将有美国的 12 个城市可以使用 5G](https://www.cnn.com/2018/12/18/tech/5g-mobile-att/index.html),在 2019 年的末尾将增加 9 个城市,但最终在这些城市里,只有市中心商业区能够访问。为了访问 5G 网络,需要一个特定的 Netgear 热点来连接到 5G 服务,然后为手机和其他设备提供一个 Wi-Fi 信号。 与此同时,AT&T 也在推出 4G 网络的速度提升计划,被成为 5GE,即使这些提升和 5G 网络没有关系。([这会向后兼容](https://www.networkworld.com/article/3339720/like-4g-before-it-5g-is-being-hyped.html?nsdr=true)) Sprint 将在 2019 年 5 月之前在四个城市提供 5G 服务,在年末将有更多。但是 Sprint 的 5G 产品充分利用了 MIMO 单元,他们[没有使用毫米波信道](https://www.digitaltrends.com/mobile/sprint-5g-rollout/),意味着 Sprint 的用户不会看到像其他运营商一样的速度提升。 T-Mobile 采用相似的模型,它[在 2019 年年底之前不会推出 5G 服务](https://www.cnet.com/news/t-mobile-delays-full-600-mhz-5g-launch-until-second-half/),因为他们没有手机能够连接到它。 一个可能阻止 5G 速度的迅速传播的障碍是需要铺开所有这些小蜂窝基站。它们小的尺寸和较低的功耗需求使它们技术上比 4G 技术更容易部署,但这不意味着它能够很简单的使政府和财产拥有者信服到处安装一堆基站。Verizon 实际上建立了[向本地民选官员请愿的网站](https://lets5g.com/)来加速 5G 基站的部署。 ### 5G 手机:何时可获得?何时可以买? 第一部声称为 5G 手机的是 Samsung Galaxy S10 5G,将在 2019 年夏末首发。你也可以从 Verizon 订阅一个“[Moto Mod](https://www.verizonwireless.com/support/5g-moto-mod-faqs/?AID=11365093&SID=100098X1555750Xbc2e857934b22ebca1a0570d5ba93b7c&vendorid=CJM&PUBID=7105813&cjevent=2e2150cb478c11e98183013b0a1c0e0c)”,用来[转换 Moto Z3 手机为 5G 兼容设备](https://www.digitaltrends.com/cell-phone-reviews/moto-z3-review/)。 但是除非你不能忍受作为一个早期使用者的诱惑,你会希望再等待一下;一些关于运营商的奇怪和突显的问题意味着可能你的手机[不兼容你的运营商的整个 5G 网络](https://www.businessinsider.com/samsung-galaxy-s10-5g-which-us-cities-have-5g-networks-2019-2)。 一个可能令你吃惊的落后者是苹果:分析者确信最早直到 2020 年以前 iPhone 不会与 5G 兼容。但这符合该公司的特点;苹果在 2012 年末也落后于三星发布兼容 4G 的手机。 不可否认,5G 洪流已经到来。5G 兼容的设备[在 2019 年统治了巴塞罗那世界移动大会](https://www.networkworld.com/article/3354477/mobile-world-congress-the-time-of-5g-is-almost-here.html),因此期待视野里有更多的选择。 ### 为什么人们已经在讨论 6G 了? 一些专家说缺点是[5G 不能够达到延迟和可靠性的目标](https://www.networkworld.com/article/3305359/6g-will-achieve-terabits-per-second-speeds.html)。这些完美主义者已经在探寻 6G,来试图解决这些缺点。 有一个[研究新的能够融入 6G 技术的小组](https://www.networkworld.com/article/3285112/get-ready-for-upcoming-6g-wireless-too.html),自称为“融合 TeraHertz 通信与传感中心”(ComSenTer)。根据说明,他们努力让每个设备的带宽达到 100Gbps。 除了增加可靠性,还突破了可靠性并增加速度,6G 同样试图允许上千的并发连接。如果成功的话,这个特点将帮助物联网设备联网,使在工业设置中部署上千个传感器。 即使仍在胚胎当中,6G 已经由于新发现的 [在基于 tera-hretz 的网络中潜在的中间人攻击](https://www.networkworld.com/article/3315626/5g-and-6g-wireless-technologies-have-security-issues.html)的紧迫性面临安全的考虑。好消息是有大量时间来解决这个问题。6G 网络直到 2030 之前才可能出现。 阅读更多关于 5G 网络: * [企业如何为 5G 网络做准备](https://%20https//www.networkworld.com/article/3306720/mobile-wireless/how-enterprises-can-prep-for-5g.html) * [5G 与 4G:速度、延迟和应用支持的差异](https://%20https//www.networkworld.com/article/3330603/mobile-wireless/5g-versus-4g-how-speed-latency-and-application-support-differ.html) * [私人 5G 网络即将到来](https://%20https//www.networkworld.com/article/3319176/mobile-wireless/private-5g-networks-are-coming.html) * [5G 和 6G 无线存在安全问题](https://www.networkworld.com/article/3315626/network-security/5g-and-6g-wireless-technologies-have-security-issues.html) * [毫米波无线技术如何支持 5G 和物联网](https://www.networkworld.com/article/3291323/mobile-wireless/millimeter-wave-wireless-could-help-support-5g-and-iot.html) --- via: <https://www.networkworld.com/article/3203489/what-is-5g-how-is-it-better-than-4g.html> 作者:[Josh Fruhlinger](https://www.networkworld.com/author/Josh-Fruhlinger/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[warmfrog](https://github.com/warmfrog) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
每日安全资讯:保险公司以“网络战”为由拒绝为网络攻击理赔
安华金和
“我们所面临的风险是,未来的网络保险可能一文不值。”这不是第一次保险公司使用战时条款免责
/data/attachment/album/201905/04/143612fcfgqq5i6a13rzr6.jpg.thumb.jpg
/data/attachment/album/201905/04/143612fcfgqq5i6a13rzr6.jpg
true
false
false
false
[ "战争", "网络攻击" ]
每日安全资讯
{ "viewnum": 3597, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
“我们所面临的风险是,未来的网络保险可能一文不值。”这不是第一次保险公司使用战时条款免责
2019-05-04T14:37:02
2019-05-04T14:37:02
10,813
/article-10813-1.html
![](/data/attachment/album/201905/04/143612fcfgqq5i6a13rzr6.jpg) 2017 年的 NotPetya 网络攻击给<ruby> 亿滋国际 <rp> ( </rp> <rt> Mondelez International </rt> <rp> ) </rp></ruby>(前身卡夫食品,奥利奥饼干制造商)造成了超过 1 亿美元经济损失。该公司的高管以为保险公司会帮他们承担损失,然而亿滋的承保人<ruby> 苏黎世保险 <rp> ( </rp> <rt> Zurich Insurance </rt> <rp> ) </rp></ruby>以保险合同中“战争除外”条款拒绝报销费用。 2018 年,美国政府认定俄罗斯是 NotPetya 网络攻击幕后主使,当政府官员放肆地点名羞辱网络攻击的国家级支持者,却白送给保险公司一个拒绝的理由——“网络战”。亿滋于去年起诉了苏黎世保险。于此同时<ruby> 默沙东制药 <rp> ( </rp> <rt> Merck </rt> <rp> ) </rp></ruby>起诉了 20 多家拒绝理赔的保险公司,NotPetya 攻击给默沙东造成 7 亿美元损失。 这两个案件可能数年后才得以解决,卡内基国际和平基金会高级研究员 Ariel Levite 认为,“我们所面临的风险是,未来的网络保险可能一文不值。”这不是第一次保险公司使用战时条款免责,1970 年解放巴勒斯坦人民阵线劫持泛美航空 93 号班机,并致坠毁,法庭驳回了<ruby> 安泰人寿 <rp> ( </rp> <rt> Aetna </rt> <rp> ) </rp></ruby>的企图:这是犯罪,而不是战争行为。 在亿滋和默沙东的案件中,核心问题是 NotPetya 攻击是否符合“战争例外”条款,而我们至今不清楚网络战到底是什么样,事实上也没有人与亿滋“交战”,前保险巨头美国国际集团(AIG)首席运营官 Ty Sagalow 认为这是一个灰色地带。 网络攻击带来的连带损害越来越普遍,“这就是今天的网络,如果你不喜欢它,你就不应该经商。” 来源:solidot.org ### 更多资讯 ##### 17 岁安全研究人员发现戴尔电脑的 SupportAssist 存在严重缺陷 如果您使用戴尔 Windows PC,那么肯定了解该公司的 SupportAssist 应用程序,该应用程序预先安装在几乎所有戴尔品牌的 Windows PC,旨在帮助用户处理各种事务,从下载驱动程序到硬件检查。简而言之,SupportAssist 应用程序可以处理您电脑的健康状况。但是,一位 17 岁的安全研究人员在 SupportAssist 应用程序中发现了远程代码执行(RCE)漏洞。 来源: cnBeta.COM 详情: <http://t.cn/ESdKQes> ##### Windows 10 将保护用户在 Google Chrome 隐身模式中输入的文字 微软已经提出了在私有模式下运行 Chromium 浏览器(如 Google Chrome)时改善用户隐私的计划,从而解决了当前操作系统中最大的问题之一。微软表示,在 Windows 10 上,每当用户以隐身模式启动 Google Chrome 时,其键入的数据都应该受到保护,不应留下任何浏览痕迹。 来源: cnBeta.COM 详情: <http://t.cn/ESdKezQ> ##### Mozilla 更新扩展政策 宣布禁止混淆代码 Mozilla 更新了它的扩展政策,明确禁止含有混淆代码的扩展。这一政策将于 6 月 10 日生效,扩展开发者需要在一个月内更新扩展以避免违反扩展政策。Mozilla 表示此举有助于更好的处理恶意扩展。混淆代码通常被黑客用于隐藏程序的真正用途。 来源: solidot.org 详情: <http://t.cn/ESd97T3> ##### 2019 年第 1 季度网络钓鱼报告:微软是攻击者最爱模仿的服务品牌 最新报告显示 2019 年第 1 季度,通过社交媒体开展的网络钓鱼行为数量同比增长了 74.7%。根据电子邮件预防公司 Vade Secure 近期公布的网络钓鱼报告显示,由于可以通过 Office 365 中获取丰厚的数据,因此微软已经连续 4 个季度成为黑客重点攻击的目标。 来源: cnBeta.COM 详情: <http://t.cn/ESd9y2X> (信息来源于网络,安华金和搜集整理)
8 个你应该了解的环保开源项目
Laura Hilliger
https://opensource.com/article/19/4/environment-projects
通过给这些致力于提升环境的项目做贡献来庆祝地球日。
/data/attachment/album/201905/04/144832l5kg9xogo9gu2aw2.jpg.thumb.jpg
/data/attachment/album/201905/04/144832l5kg9xogo9gu2aw2.jpg
true
false
true
lujun9972
geekpi
wxy
false
[ "环保", "地球日" ]
观点
{ "viewnum": 3595, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
通过给这些致力于提升环境的项目做贡献来庆祝地球日。
2019-05-04T14:48:55
2019-05-04T14:48:55
10,814
/article-10814-1.html
> > 通过给这些致力于提升环境的项目做贡献来庆祝地球日。 > > > ![](/data/attachment/album/201905/04/144832l5kg9xogo9gu2aw2.jpg) 在过去的几年里,我一直在帮助 [Greenpeace](http://www.greenpeace.org) 建立其第一个完全开源的软件项目,Planet 4. [Planet 4](http://medium.com/planet4) 是一个全球参与平台,Greenpeace 的支持者和活动家可以互动并参与组织。它的目标是让人们代表我们的星球采取行动。我们希望邀请参与并利用人力来应对气候变化和塑料污染等全球性问题。开发者、设计师、作者、贡献者和其他通过开源支持环保主义的人都非常欢迎[参与进来](https://planet4.greenpeace.org/community/#partners-open-sourcers)! Planet 4 远非唯一关注环境的开源项目。对于地球日,我会分享其他七个关注我们星球的开源项目。 [Eco Hacker Farm](https://wiki.ecohackerfarm.org/start) 致力于支持可持续社区。它建议并支持将黑客空间/黑客基地和永续农业生活结合在一起的项目。该组织还有在线项目。访问其 [wiki](https://wiki.ecohackerfarm.org/) 或 [Twitter](https://twitter.com/EcoHackerFarm) 了解有关 Eco Hacker Farm 正在做的更多信息。 [Public Lab](https://publiclab.org/) 是一个开放社区和非营利组织,它致力于将科学掌握在公民手中。它于 2010 年在 BP 石油灾难后形成,Public Lab 与开源合作,协助环境勘探和调查。它是一个多元化的社区,有很多方法可以做[贡献](https://publiclab.org/contribute)。 不久前,Opensource.com 的社区管理者 Don Watkins 撰写了一篇 [Open Climate Workbench](https://opensource.com/article/17/1/apache-open-climate-workbench) 的文章,该项目来自 Apache 基金会。 [OCW](https://climate.apache.org/) 提供了进行气候建模和评估的软件,可用于各种应用。 [Open Source Ecology](https://wiki.opensourceecology.org/wiki/Project_needs) 是一个旨在改善经济运作方式的项目。该项目着眼于环境再生和社会公正,它旨在重新界定我们的一些肮脏的生产和分配技术,以创造一个更可持续的文明。 促进开源和大数据工具之间的合作,以实现海洋、大气、土地和气候的研究,“ [Pangeo](http://pangeo.io/) 是第一个推广开放、可重复和可扩展科学的社区。”大数据可以改变世界! [Leaflet](https://leafletjs.com/) 是一个著名的开源 JavaScript 库。它可以做各种各样的事情,包括环保项目,如 [Arctic Web Map](https://webmap.arcticconnect.ca/#ac_3573/2/20.8/-65.5),它能让科学家准确地可视化和分析北极地区,这是气候研究的关键能力。 当然,没有我在 Mozilla 的朋友就没有这个列表(这不是个完整的列表!)。[Mozilla Science Lab](https://science.mozilla.org/) 社区就像所有 Mozilla 项目一样,非常开放,它致力于将开源原则带给科学界。它的项目和社区使科学家能够进行我们世界所需的各种研究,以解决一些最普遍的环境问题。 ### 如何贡献 在这个地球日,做为期六个月的承诺,将一些时间贡献给一个有助于应对气候变化的开源项目,或以其他方式鼓励人们保护地球母亲。肯定还有许多关注环境的开源项目,所以请在评论中留言! --- via: <https://opensource.com/article/19/4/environment-projects> 作者:[Laura Hilliger](https://opensource.com/users/laurahilliger) 选题:[lujun9972](https://github.com/lujun9972) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
在 Linux 中如何使用 iotop 和 iostat 监控磁盘 I/O 活动?
Magesh Maruthamuthu
https://www.2daygeek.com/check-monitor-disk-io-in-linux-using-iotop-iostat-command/
大多数时间里服务器性能由于在硬盘上的高 I/O 读和写降低了性能。如果它很高或者波动,很可能就是它造成的。因此,我们需要检查硬盘上的 I/O 活动。
/data/attachment/album/201905/05/101102t6uu9u8o4huuoote.jpg.thumb.jpg
/data/attachment/album/201905/05/101102t6uu9u8o4huuoote.jpg
true
false
true
lujun9972
warmfrog
wxy
false
[ "I/O", "性能", "iostat", "iotop" ]
技术
{ "viewnum": 27607, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
大多数时间里服务器性能由于在硬盘上的高 I/O 读和写降低了性能。如果它很高或者波动,很可能就是它造成的。因此,我们需要检查硬盘上的 I/O 活动。
2019-05-05T10:11:09
2019-05-05T10:11:09
10,815
/article-10815-1.html
![](/data/attachment/album/201905/05/101102t6uu9u8o4huuoote.jpg) 你知道在 Linux 中我们使用什么工具检修和监控实时的磁盘活动吗?如果 [Linux 系统性能](https://www.2daygeek.com/category/monitoring-tools/)变慢,我们会用 [top 命令](https://www.2daygeek.com/linux-top-command-linux-system-performance-monitoring-tool/) 来查看系统性能。它被用来检查是什么进程在服务器上占有如此高的使用率,对于大多数 Linux 系统管理员来说很常见,现实世界中被 Linux 系统管理员广泛采用。 如果在进程输出中你没有看到很大的不同,你仍然有选择查看其他东西。我会建议你在 `top` 输出中检查 `wa` 状态,因为大多数时间里服务器性能由于在硬盘上的高 I/O 读和写降低了性能。如果它很高或者波动,很可能就是它造成的。因此,我们需要检查硬盘上的 I/O 活动。 我们可以在 Linux 中使用 `iotop` 和 `iostat` 命令监控所有的磁盘和文件系统的磁盘 I/O 统计。 ### 什么是 iotop? `iotop` 是一个类似 `top` 的工具,用来显示实时的磁盘活动。 `iotop` 监控 Linux 内核输出的 I/O 使用信息,并且显示一个系统中进程或线程的当前 I/O 使用情况。 它显示每个进程/线程读写 I/O 带宽。它同样显示当等待换入和等待 I/O 的线程/进程花费的时间的百分比。 `Total DISK READ` 和 `Total DISK WRITE` 的值一方面表示了进程和内核线程之间的总的读写带宽,另一方面也表示内核块设备子系统的。 `Actual DISK READ` 和 `Actual DISK WRITE` 的值表示在内核块设备子系统和下面硬件(HDD、SSD 等等)对应的实际磁盘 I/O 带宽。 ### 如何在 Linux 中安装 iotop ? 我们可以轻松在包管理器的帮助下安装,因为该软件包在所有的 Linux 发行版仓库中都可以获得。 对于 Fedora 系统,使用 [DNF 命令](https://www.2daygeek.com/dnf-command-examples-manage-packages-fedora-system/) 来安装 `iotop`。 ``` $ sudo dnf install iotop ``` 对于 Debian/Ubuntu 系统,使用 [API-GET 命令](https://www.2daygeek.com/apt-get-apt-cache-command-examples-manage-packages-debian-ubuntu-systems/) 或者 [APT 命令](https://www.2daygeek.com/apt-command-examples-manage-packages-debian-ubuntu-systems/) 来安装 `iotop`。 ``` $ sudo apt install iotop ``` 对于基于 Arch Linux 的系统,使用 [Pacman Command](https://www.2daygeek.com/pacman-command-examples-manage-packages-arch-linux-system/) 来安装 `iotop`。 ``` $ sudo pacman -S iotop ``` 对于 RHEL/CentOS 的系统,使用 [YUM Command](https://www.2daygeek.com/yum-command-examples-manage-packages-rhel-centos-systems/) 来安装 `iotop`。 ``` $ sudo yum install iotop ``` 对于使用 openSUSE Leap 的系统,使用 [Zypper Command](https://www.2daygeek.com/zypper-command-examples-manage-packages-opensuse-system/) 来安装 `iotop`。 ``` $ sudo zypper install iotop ``` ### 在 Linux 中如何使用 iotop 命令来监控磁盘 I/O 活动/统计? `iotop` 命令有很多参数来检查关于磁盘 I/O 的变化: ``` # iotop ``` ![10](/data/attachment/album/201905/05/101113ho9c86lcesjo77rw.jpg) 如果你想检查那个进程实际在做 I/O,那么运行 `iotop` 命令加上 `-o` 或者 `--only` 参数。 ``` # iotop --only ``` ![11](/data/attachment/album/201905/05/101115sbjz5xpsy1kmddzs.jpg) 细节: * `IO`:它显示每个进程的 I/O 利用率,包含磁盘和交换。 * `SWAPIN`: 它只显示每个进程的交换使用率。 ### 什么是 iostat? `iostat` 被用来报告中央处理单元(CPU)的统计和设备与分区的输出/输出的统计。 `iostat` 命令通过观察与它们平均传输率相关的设备活跃时间来监控系统输入/输出设备负载。 `iostat` 命令生成的报告可以被用来改变系统配置来更好的平衡物理磁盘之间的输入/输出负载。 所有的统计都在 `iostat` 命令每次运行时被报告。该报告包含一个 CPU 头部,后面是一行 CPU 统计。 在多处理器系统中,CPU 统计被计算为系统层面的所有处理器的平均值。设备头行后紧跟显示每个配置的设备一行的统计。 `iostat` 命令生成两种类型的报告,CPU 利用率报告和设备利用率报告。 ### 在 Linux 中怎样安装 iostat? `iostat` 工具是 `sysstat` 包的一部分,所以我们可以轻松地在包管理器地帮助下安装,因为在所有的 Linux 发行版的仓库都是可以获得的。 对于 Fedora 系统,使用 [DNF Command](https://www.2daygeek.com/dnf-command-examples-manage-packages-fedora-system/) 来安装 `sysstat`。 ``` $ sudo dnf install sysstat ``` 对于 Debian/Ubuntu 系统,使用 [APT-GET Command](https://www.2daygeek.com/apt-get-apt-cache-command-examples-manage-packages-debian-ubuntu-systems/) 或者 [APT Command](https://www.2daygeek.com/apt-command-examples-manage-packages-debian-ubuntu-systems/) 来安装 `sysstat`。 ``` $ sudo apt install sysstat ``` 对于基于 Arch Linux 的系统,使用 [Pacman Command](https://www.2daygeek.com/pacman-command-examples-manage-packages-arch-linux-system/) 来安装 `sysstat`。 ``` $ sudo pacman -S sysstat ``` 对于 RHEL/CentOS 系统,使用 [YUM Command](https://www.2daygeek.com/yum-command-examples-manage-packages-rhel-centos-systems/) 来安装 `sysstat`。 ``` $ sudo yum install sysstat ``` 对于 openSUSE Leap 系统,使用 [Zypper Command](https://www.2daygeek.com/zypper-command-examples-manage-packages-opensuse-system/) 来安装 `sysstat`。 ``` $ sudo zypper install sysstat ``` ### 在 Linux 中如何使用 sysstat 命令监控磁盘 I/O 活动/统计? 在 `iostat` 命令中有很多参数来检查关于 I/O 和 CPU 的变化统计信息。 不加参数运行 `iostat` 命令会看到完整的系统统计。 ``` # iostat Linux 4.19.32-1-MANJARO (daygeek-Y700) Thursday 18 April 2019 _x86_64_ (8 CPU) avg-cpu: %user %nice %system %iowait %steal %idle 29.45 0.02 16.47 0.12 0.00 53.94 Device tps kB_read/s kB_wrtn/s kB_dscd/s kB_read kB_wrtn kB_dscd nvme0n1 6.68 126.95 124.97 0.00 58420014 57507206 0 sda 0.18 6.77 80.24 0.00 3115036 36924764 0 loop0 0.00 0.00 0.00 0.00 2160 0 0 loop1 0.00 0.00 0.00 0.00 1093 0 0 loop2 0.00 0.00 0.00 0.00 1077 0 0 ``` 运行 `iostat` 命令加上 `-d` 参数查看所有设备的 I/O 统计。 ``` # iostat -d Linux 4.19.32-1-MANJARO (daygeek-Y700) Thursday 18 April 2019 _x86_64_ (8 CPU) Device tps kB_read/s kB_wrtn/s kB_dscd/s kB_read kB_wrtn kB_dscd nvme0n1 6.68 126.95 124.97 0.00 58420030 57509090 0 sda 0.18 6.77 80.24 0.00 3115292 36924764 0 loop0 0.00 0.00 0.00 0.00 2160 0 0 loop1 0.00 0.00 0.00 0.00 1093 0 0 loop2 0.00 0.00 0.00 0.00 1077 0 0 ``` 运行 `iostat` 命令加上 `-p` 参数查看所有的设备和分区的 I/O 统计。 ``` # iostat -p Linux 4.19.32-1-MANJARO (daygeek-Y700) Thursday 18 April 2019 _x86_64_ (8 CPU) avg-cpu: %user %nice %system %iowait %steal %idle 29.42 0.02 16.45 0.12 0.00 53.99 Device tps kB_read/s kB_wrtn/s kB_dscd/s kB_read kB_wrtn kB_dscd nvme0n1 6.68 126.94 124.96 0.00 58420062 57512278 0 nvme0n1p1 6.40 124.46 118.36 0.00 57279753 54474898 0 nvme0n1p2 0.27 2.47 6.60 0.00 1138069 3037380 0 sda 0.18 6.77 80.23 0.00 3116060 36924764 0 sda1 0.00 0.01 0.00 0.00 3224 0 0 sda2 0.18 6.76 80.23 0.00 3111508 36924764 0 loop0 0.00 0.00 0.00 0.00 2160 0 0 loop1 0.00 0.00 0.00 0.00 1093 0 0 loop2 0.00 0.00 0.00 0.00 1077 0 0 ``` 运行 `iostat` 命令加上 `-x` 参数显示所有设备的详细的 I/O 统计信息。 ``` # iostat -x Linux 4.19.32-1-MANJARO (daygeek-Y700) Thursday 18 April 2019 _x86_64_ (8 CPU) avg-cpu: %user %nice %system %iowait %steal %idle 29.41 0.02 16.45 0.12 0.00 54.00 Device r/s rkB/s rrqm/s %rrqm r_await rareq-sz w/s wkB/s wrqm/s %wrqm w_await wareq-sz d/s dkB/s drqm/s %drqm d_await dareq-sz aqu-sz %util nvme0n1 2.45 126.93 0.60 19.74 0.40 51.74 4.23 124.96 5.12 54.76 3.16 29.54 0.00 0.00 0.00 0.00 0.00 0.00 0.31 30.28 sda 0.06 6.77 0.00 0.00 8.34 119.20 0.12 80.23 19.94 99.40 31.84 670.73 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.13 loop0 0.00 0.00 0.00 0.00 0.08 19.64 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 loop1 0.00 0.00 0.00 0.00 0.40 12.86 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 loop2 0.00 0.00 0.00 0.00 0.38 19.58 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 ``` 运行 `iostat` 命令加上 `-d [设备名]` 参数查看具体设备和它的分区的 I/O 统计信息。 ``` # iostat -p [Device_Name] # iostat -p sda Linux 4.19.32-1-MANJARO (daygeek-Y700) Thursday 18 April 2019 _x86_64_ (8 CPU) avg-cpu: %user %nice %system %iowait %steal %idle 29.38 0.02 16.43 0.12 0.00 54.05 Device tps kB_read/s kB_wrtn/s kB_dscd/s kB_read kB_wrtn kB_dscd sda 0.18 6.77 80.21 0.00 3117468 36924764 0 sda2 0.18 6.76 80.21 0.00 3112916 36924764 0 sda1 0.00 0.01 0.00 0.00 3224 0 0 ``` 运行 `iostat` 命令加上 `-m` 参数以 MB 为单位而不是 KB 查看所有设备的统计。默认以 KB 显示输出。 ``` # iostat -m Linux 4.19.32-1-MANJARO (daygeek-Y700) Thursday 18 April 2019 _x86_64_ (8 CPU) avg-cpu: %user %nice %system %iowait %steal %idle 29.36 0.02 16.41 0.12 0.00 54.09 Device tps MB_read/s MB_wrtn/s MB_dscd/s MB_read MB_wrtn MB_dscd nvme0n1 6.68 0.12 0.12 0.00 57050 56176 0 sda 0.18 0.01 0.08 0.00 3045 36059 0 loop0 0.00 0.00 0.00 0.00 2 0 0 loop1 0.00 0.00 0.00 0.00 1 0 0 loop2 0.00 0.00 0.00 0.00 1 0 0 ``` 运行 `iostat` 命令使用特定的间隔使用如下的格式。在这个例子中,我们打算以 5 秒捕获的间隔捕获两个报告。 ``` # iostat [Interval] [Number Of Reports] # iostat 5 2 Linux 4.19.32-1-MANJARO (daygeek-Y700) Thursday 18 April 2019 _x86_64_ (8 CPU) avg-cpu: %user %nice %system %iowait %steal %idle 29.35 0.02 16.41 0.12 0.00 54.10 Device tps kB_read/s kB_wrtn/s kB_dscd/s kB_read kB_wrtn kB_dscd nvme0n1 6.68 126.89 124.95 0.00 58420116 57525344 0 sda 0.18 6.77 80.20 0.00 3118492 36924764 0 loop0 0.00 0.00 0.00 0.00 2160 0 0 loop1 0.00 0.00 0.00 0.00 1093 0 0 loop2 0.00 0.00 0.00 0.00 1077 0 0 avg-cpu: %user %nice %system %iowait %steal %idle 3.71 0.00 2.51 0.05 0.00 93.73 Device tps kB_read/s kB_wrtn/s kB_dscd/s kB_read kB_wrtn kB_dscd nvme0n1 19.00 0.20 311.40 0.00 1 1557 0 sda 0.20 25.60 0.00 0.00 128 0 0 loop0 0.00 0.00 0.00 0.00 0 0 0 loop1 0.00 0.00 0.00 0.00 0 0 0 loop2 0.00 0.00 0.00 0.00 0 0 0 ``` 运行 `iostat` 命令与 `-N` 参数来查看 LVM 磁盘 I/O 统计报告。 ``` # iostat -N Linux 4.15.0-47-generic (Ubuntu18.2daygeek.com) Thursday 18 April 2019 _x86_64_ (2 CPU) avg-cpu: %user %nice %system %iowait %steal %idle 0.38 0.07 0.18 0.26 0.00 99.12 Device tps kB_read/s kB_wrtn/s kB_read kB_wrtn sda 3.60 57.07 69.06 968729 1172340 sdb 0.02 0.33 0.00 5680 0 sdc 0.01 0.12 0.00 2108 0 2g-2gvol1 0.00 0.07 0.00 1204 0 ``` 运行 `nfsiostat` 命令来查看 Network File System(NFS)的 I/O 统计。 ``` # nfsiostat ``` --- via: <https://www.2daygeek.com/check-monitor-disk-io-in-linux-using-iotop-iostat-command/> 作者:[Magesh Maruthamuthu](https://www.2daygeek.com/author/magesh/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[warmfrog](https://github.com/warmfrog) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
关于 /dev/urandom 的流言终结
Thomas Hühn
https://www.2uo.de/myths-about-urandom/
有很多关于 /dev/urandom 和 /dev/random 的流言在坊间不断流传。然而流言终究是流言。
/data/attachment/album/201905/05/114806yfcc6p5f6mmug58b.jpg.thumb.jpg
/data/attachment/album/201905/05/114806yfcc6p5f6mmug58b.jpg
true
false
true
Moelf
wxy
true
[ "随机" ]
技术
{ "viewnum": 7689, "commentnum": 0, "favtimes": 1, "sharetimes": 0, "likes": 0 }
[]
[ { "raid": 9478, "displayorder": 0 }, { "raid": 9697, "displayorder": 1 } ]
有很多关于 /dev/urandom 和 /dev/random 的流言在坊间不断流传。然而流言终究是流言。
2019-05-05T11:49:00
2019-05-05T11:49:00
10,816
/article-10816-1.html
![](/data/attachment/album/201905/05/114806yfcc6p5f6mmug58b.jpg) 有很多关于 `/dev/urandom` 和 `/dev/random` 的流言在坊间不断流传。然而流言终究是流言。 > > 本篇文章里针对的都是近来的 Linux 操作系统,其它类 Unix 操作系统不在讨论范围内。 > > > **`/dev/urandom` 不安全。加密用途必须使用 `/dev/random`** *事实*:`/dev/urandom` 才是类 Unix 操作系统下推荐的加密种子。 **`/dev/urandom` 是<ruby> 伪随机数生成器 <rt> pseudo random number generator </rt></ruby>(PRND),而 `/dev/random` 是“真”随机数生成器。** *事实*:它们两者本质上用的是同一种 CSPRNG (一种密码学伪随机数生成器)。它们之间细微的差别和“真”“不真”随机完全无关。(参见:“Linux 随机数生成器的构架”一节) **`/dev/random` 在任何情况下都是密码学应用更好地选择。即便 `/dev/urandom` 也同样安全,我们还是不应该用它。** *事实*:`/dev/random` 有个很恶心人的问题:它是阻塞的。(参见:“阻塞有什么问题?”一节)(LCTT 译注:意味着请求都得逐个执行,等待前一个请求完成) **但阻塞不是好事吗!`/dev/random` 只会给出电脑收集的信息熵足以支持的随机量。`/dev/urandom` 在用完了所有熵的情况下还会不断吐出不安全的随机数给你。** *事实*:这是误解。就算我们不去考虑应用层面后续对随机种子的用法,“用完信息熵池”这个概念本身就不存在。仅仅 256 位的熵就足以生成计算上安全的随机数很长、很长的一段时间了。(参见:“那熵池快空了的情况呢?”一节) 问题的关键还在后头:`/dev/random` 怎么知道有系统会*多少*可用的信息熵?接着看! **但密码学家老是讨论重新选种子(re-seeding)。这难道不和上一条冲突吗?** *事实*:你说的也没错!某种程度上吧。确实,随机数生成器一直在使用系统信息熵的状态重新选种。但这么做(一部分)是因为别的原因。(参见:“重新选种”一节) 这样说吧,我没有说引入新的信息熵是坏的。更多的熵肯定更好。我只是说在熵池低的时候阻塞是没必要的。 **好,就算你说的都对,但是 `/dev/(u)random` 的 man 页面和你说的也不一样啊!到底有没有专家同意你说的这堆啊?** *事实*:其实 man 页面和我说的不冲突。它看似好像在说 `/dev/urandom` 对密码学用途来说不安全,但如果你真的理解这堆密码学术语你就知道它说的并不是这个意思。(参见:“random 和 urandom 的 man 页面”一节) man 页面确实说在一些情况下推荐使用 `/dev/random` (我觉得也没问题,但绝对不是说必要的),但它也推荐在大多数“一般”的密码学应用下使用 `/dev/urandom` 。 虽然诉诸权威一般来说不是好事,但在密码学这么严肃的事情上,和专家统一意见是很有必要的。 所以说呢,还确实有一些*专家*和我的一件事一致的:`/dev/urandom` 就应该是类 UNIX 操作系统下密码学应用的首选。显然的,是他们的观点说服了我而不是反过来的。(参见:“正道”一节) --- 难以相信吗?觉得我肯定错了?读下去看我能不能说服你。 我尝试不讲太高深的东西,但是有两点内容必须先提一下才能让我们接着论证观点。 首当其冲的,*什么是随机性*,或者更准确地:我们在探讨什么样的随机性?(参见:“真随机”一节) 另外一点很重要的是,我*没有尝试以说教的态度*对你们写这段话。我写这篇文章是为了日后可以在讨论起的时候指给别人看。比 140 字长(LCTT 译注:推特长度)。这样我就不用一遍遍重复我的观点了。能把论点磨炼成一篇文章本身就很有助于将来的讨论。(参见:“你是在说我笨?!”一节) 并且我非常乐意听到不一样的观点。但我只是认为单单地说 `/dev/urandom` 坏是不够的。你得能指出到底有什么问题,并且剖析它们。 ### 你是在说我笨?! 绝对没有! 事实上我自己也相信了 “`/dev/urandom` 是不安全的” 好些年。这几乎不是我们的错,因为那么德高望重的人在 Usenet、论坛、推特上跟我们重复这个观点。甚至*连 man 手册*都似是而非地说着。我们当年怎么可能鄙视诸如“信息熵太低了”这种看上去就很让人信服的观点呢?(参见:“random 和 urandom 的 man 页面”一节) 整个流言之所以如此广为流传不是因为人们太蠢,而是因为但凡有点关于信息熵和密码学概念的人都会觉得这个说法很有道理。直觉似乎都在告诉我们这流言讲的很有道理。很不幸直觉在密码学里通常不管用,这次也一样。 ### 真随机 随机数是“真正随机”是什么意思? 我不想搞的太复杂以至于变成哲学范畴的东西。这种讨论很容易走偏因为对于随机模型大家见仁见智,讨论很快变得毫无意义。 在我看来“真随机”的“试金石”是量子效应。一个光子穿过或不穿过一个半透镜。或者观察一个放射性粒子衰变。这类东西是现实世界最接近真随机的东西。当然,有些人也不相信这类过程是真随机的,或者这个世界根本不存在任何随机性。这个就百家争鸣了,我也不好多说什么了。 密码学家一般都会通过不去讨论什么是“真随机”来避免这种哲学辩论。他们更关心的是<ruby> 不可预测性 <rt> unpredictability </rt></ruby>。只要没有*任何*方法能猜出下一个随机数就可以了。所以当你以密码学应用为前提讨论一个随机数好不好的时候,在我看来这才是最重要的。 无论如何,我不怎么关心“哲学上安全”的随机数,这也包括别人嘴里的“真”随机数。 ### 两种安全,一种有用 但就让我们退一步说,你有了一个“真”随机变量。你下一步做什么呢? 你把它们打印出来然后挂在墙上来展示量子宇宙的美与和谐?牛逼!我支持你。 但是等等,你说你要*用*它们?做密码学用途?额,那这就废了,因为这事情就有点复杂了。 事情是这样的,你的真随机、量子力学加护的随机数即将被用进不理想的现实世界算法里去。 因为我们使用的几乎所有的算法都并不是<ruby> 信息论安全性 <rt> information-theoretic security </rt></ruby>的。它们“只能”提供**计算意义上的安全**。我能想到为数不多的例外就只有 Shamir 密钥分享和<ruby> 一次性密码本 <rt> One-time pad </rt></ruby>(OTP)算法。并且就算前者是名副其实的(如果你实际打算用的话),后者则毫无可行性可言。 但所有那些大名鼎鼎的密码学算法,AES、RSA、Diffie-Hellman、椭圆曲线,还有所有那些加密软件包,OpenSSL、GnuTLS、Keyczar、你的操作系统的加密 API,都仅仅是计算意义上安全的。 那区别是什么呢?信息论安全的算法肯定是安全的,绝对是,其它那些的算法都可能在理论上被拥有无限计算力的穷举破解。我们依然愉快地使用它们是因为全世界的计算机加起来都不可能在宇宙年龄的时间里破解,至少现在是这样。而这就是我们文章里说的“不安全”。 除非哪个聪明的家伙破解了算法本身 —— 在只需要更少量计算力、在今天可实现的计算力的情况下。这也是每个密码学家梦寐以求的圣杯:破解 AES 本身、破解 RSA 本身等等。 所以现在我们来到了更底层的东西:随机数生成器,你坚持要“真随机”而不是“伪随机”。但是没过一会儿你的真随机数就被喂进了你极为鄙视的伪随机算法里了! 真相是,如果我们最先进的哈希算法被破解了,或者最先进的分组加密算法被破解了,你得到的这些“哲学上不安全”的随机数甚至无所谓了,因为反正你也没有安全的应用方法了。 所以把计算性上安全的随机数喂给你的仅仅是计算性上安全的算法就可以了,换而言之,用 `/dev/urandom`。 ### Linux 随机数生成器的构架 #### 一种错误的看法 你对内核的随机数生成器的理解很可能是像这样的: ![image: mythical structure of the kernel's random number generator](/data/attachment/album/201905/05/114905nbvogxorvss5r8sp.png) “真正的随机性”,尽管可能有点瑕疵,进入操作系统然后它的熵立刻被加入内部熵计数器。然后经过“矫偏”和“漂白”之后它进入内核的熵池,然后 `/dev/random` 和 `/dev/urandom` 从里面生成随机数。 “真”随机数生成器,`/dev/random`,直接从池里选出随机数,如果熵计数器表示能满足需要的数字大小,那就吐出数字并且减少熵计数。如果不够的话,它会阻塞程序直至有足够的熵进入系统。 这里很重要一环是 `/dev/random` 几乎只是仅经过必要的“漂白”后就直接把那些进入系统的随机性吐了出来,不经扭曲。 而对 `/dev/urandom` 来说,事情是一样的。除了当没有足够的熵的时候,它不会阻塞,而会从一直在运行的伪随机数生成器(当然,是密码学安全的,CSPRNG)里吐出“低质量”的随机数。这个 CSPRNG 只会用“真随机数”生成种子一次(或者好几次,这不重要),但你不能特别相信它。 在这种对随机数生成的理解下,很多人会觉得在 Linux 下尽量避免 `/dev/urandom` 看上去有那么点道理。 因为要么你有足够多的熵,你会相当于用了 `/dev/random`。要么没有,那你就会从几乎没有高熵输入的 CSPRNG 那里得到一个低质量的随机数。 看上去很邪恶是吧?很不幸的是这种看法是完全错误的。实际上,随机数生成器的构架更像是下面这样的。 #### 更好地简化 ##### Linux 4.8 之前 ![image: actual structure of the kernel's random number generator before Linux 4.8](/data/attachment/album/201905/05/114905x1ueur2bboejqbne.png) 你看到最大的区别了吗?CSPRNG 并不是和随机数生成器一起跑的,它在 `/dev/urandom` 需要输出但熵不够的时候进行填充。CSPRNG 是整个随机数生成过程的内部组件之一。从来就没有什么 `/dev/random` 直接从池里输出纯纯的随机性。每个随机源的输入都在 CSPRNG 里充分混合和散列过了,这一切都发生在实际变成一个随机数,被 `/dev/urandom` 或者 `/dev/random` 吐出去之前。 另外一个重要的区别是这里没有熵计数器的任何事情,只有预估。一个源给你的熵的量并不是什么很明确能直接得到的数字。你得预估它。注意,如果你太乐观地预估了它,那 `/dev/random` 最重要的特性——只给出熵允许的随机量——就荡然无存了。很不幸的,预估熵的量是很困难的。 > > 这是个很粗糙的简化。实际上不仅有一个,而是三个熵池。一个主池,另一个给 `/dev/random`,还有一个给 `/dev/urandom`,后两者依靠从主池里获取熵。这三个池都有各自的熵计数器,但二级池(后两个)的计数器基本都在 0 附近,而“新鲜”的熵总在需要的时候从主池流过来。同时还有好多混合和回流进系统在同时进行。整个过程对于这篇文档来说都过于复杂了,我们跳过。 > > > Linux 内核只使用事件的到达时间来预估熵的量。根据模型,它通过多项式插值来预估实际的到达时间有多“出乎意料”。这种多项式插值的方法到底是不是好的预估熵量的方法本身就是个问题。同时硬件情况会不会以某种特定的方式影响到达时间也是个问题。而所有硬件的取样率也是个问题,因为这基本上就直接决定了随机数到达时间的颗粒度。 说到最后,至少现在看来,内核的熵预估还是不错的。这也意味着它比较保守。有些人会具体地讨论它有多好,这都超出我的脑容量了。就算这样,如果你坚持不想在没有足够多的熵的情况下吐出随机数,那你看到这里可能还会有一丝紧张。我睡的就很香了,因为我不关心熵预估什么的。 最后要明确一下:`/dev/random` 和 `/dev/urandom` 都是被同一个 CSPRNG 饲喂的。只有它们在用完各自熵池(根据某种预估标准)的时候,它们的行为会不同:`/dev/random` 阻塞,`/dev/urandom` 不阻塞。 ##### Linux 4.8 以后 ![image: actual structure of the kernel's random number generator from Linux 4.8 onward](/data/attachment/album/201905/05/114906auiuoy8j6ji76m6i.png) 在 Linux 4.8 里,`/dev/random` 和 `/dev/urandom` 的等价性被放弃了。现在 `/dev/urandom` 的输出不来自于熵池,而是直接从 CSPRNG 来。 *我们很快会理解*为什么这不是一个安全问题。(参见:“CSPRNG 没问题”一节) ### 阻塞有什么问题? 你有没有需要等着 `/dev/random` 来吐随机数?比如在虚拟机里生成一个 PGP 密钥?或者访问一个在生成会话密钥的网站? 这些都是问题。阻塞本质上会降低可用性。换而言之你的系统不干你让它干的事情。不用我说,这是不好的。要是它不干活你干嘛搭建它呢? > > 我在工厂自动化里做过和安全相关的系统。猜猜看安全系统失效的主要原因是什么?操作问题。就这么简单。很多安全措施的流程让工人恼火了。比如时间太长,或者太不方便。你要知道人很会找捷径来“解决”问题。 > > > 但其实有个更深刻的问题:人们不喜欢被打断。它们会找一些绕过的方法,把一些诡异的东西接在一起仅仅因为这样能用。一般人根本不知道什么密码学什么乱七八糟的,至少正常的人是这样吧。 为什么不禁止调用 `random()`?为什么不随便在论坛上找个人告诉你用写奇异的 ioctl 来增加熵计数器呢?为什么不干脆就把 SSL 加密给关了算了呢? 到头来如果东西太难用的话,你的用户就会被迫开始做一些降低系统安全性的事情——你甚至不知道它们会做些什么。 我们很容易会忽视可用性之类的重要性。毕竟安全第一对吧?所以比起牺牲安全,不可用、难用、不方便都是次要的? 这种二元对立的想法是错的。阻塞不一定就安全了。正如我们看到的,`/dev/urandom` 直接从 CSPRNG 里给你一样好的随机数。用它不好吗! ### CSPRNG 没问题 现在情况听上去很惨淡。如果连高质量的 `/dev/random` 都是从一个 CSPRNG 里来的,我们怎么敢在高安全性的需求上使用它呢? 实际上,“看上去随机”是现存大多数密码学基础组件的基本要求。如果你观察一个密码学哈希的输出,它一定得和随机的字符串不可区分,密码学家才会认可这个算法。如果你生成一个分组加密,它的输出(在你不知道密钥的情况下)也必须和随机数据不可区分才行。 如果任何人能比暴力穷举要更有效地破解一个加密,比如它利用了某些 CSPRNG 伪随机的弱点,那这就又是老一套了:一切都废了,也别谈后面的了。分组加密、哈希,一切都是基于某个数学算法,比如 CSPRNG。所以别害怕,到头来都一样。 ### 那熵池快空了的情况呢? 毫无影响。 加密算法的根基建立在攻击者不能预测输出上,只要最一开始有足够的随机性(熵)就行了。“足够”的下限可以是 256 位,不需要更多了。 介于我们一直在很随意的使用“熵”这个概念,我用“位”来量化随机性希望读者不要太在意细节。像我们之前讨论的那样,内核的随机数生成器甚至没法精确地知道进入系统的熵的量。只有一个预估。而且这个预估的准确性到底怎么样也没人知道。 ### 重新选种 但如果熵这么不重要,为什么还要有新的熵一直被收进随机数生成器里呢? > > djb [提到](http://blog.cr.yp.to/20140205-entropy.html) 太多的熵甚至可能会起到反效果。 > > > 首先,一般不会这样。如果你有很多随机性可以拿来用,用就对了! 但随机数生成器时不时要重新选种还有别的原因: 想象一下如果有个攻击者获取了你随机数生成器的所有内部状态。这是最坏的情况了,本质上你的一切都暴露给攻击者了。 你已经凉了,因为攻击者可以计算出所有未来会被输出的随机数了。 但是,如果不断有新的熵被混进系统,那内部状态会再一次变得随机起来。所以随机数生成器被设计成这样有些“自愈”能力。 但这是在给内部状态引入新的熵,这和阻塞输出没有任何关系。 ### random 和 urandom 的 man 页面 这两个 man 页面在吓唬程序员方面很有建树: > > 从 `/dev/urandom` 读取数据不会因为需要更多熵而阻塞。这样的结果是,如果熵池里没有足够多的熵,取决于驱动使用的算法,返回的数值在理论上有被密码学攻击的可能性。发动这样攻击的步骤并没有出现在任何公开文献当中,但这样的攻击从理论上讲是可能存在的。如果你的应用担心这类情况,你应该使用 `/dev/random`。 > > > > > > > 实际上已经有 `/dev/random` 和 `/dev/urandom` 的 Linux 内核 man 页面的更新版本。不幸的是,随便一个网络搜索出现我在结果顶部的仍然是旧的、有缺陷的版本。此外,许多 Linux 发行版仍在发布旧的 man 页面。所以不幸的是,这一节需要在这篇文章中保留更长的时间。我很期待删除这一节! > > > > > > > > > 没有“公开的文献”描述,但是 NSA 的小卖部里肯定卖这种攻击手段是吧?如果你真的真的很担心(你应该很担心),那就用 `/dev/random` 然后所有问题都没了? 然而事实是,可能某个什么情报局有这种攻击,或者某个什么邪恶黑客组织找到了方法。但如果我们就直接假设这种攻击一定存在也是不合理的。 而且就算你想给自己一个安心,我要给你泼个冷水:AES、SHA-3 或者其它什么常见的加密算法也没有“公开文献记述”的攻击手段。难道你也不用这几个加密算法了?这显然是可笑的。 我们在回到 man 页面说:“使用 `/dev/random`”。我们已经知道了,虽然 `/dev/urandom` 不阻塞,但是它的随机数和 `/dev/random` 都是从同一个 CSPRNG 里来的。 如果你真的需要信息论安全性的随机数(你不需要的,相信我),那才有可能成为唯一一个你需要等足够熵进入 CSPRNG 的理由。而且你也不能用 `/dev/random`。 man 页面有毒,就这样。但至少它还稍稍挽回了一下自己: > > 如果你不确定该用 `/dev/random` 还是 `/dev/urandom` ,那你可能应该用后者。通常来说,除了需要长期使用的 GPG/SSL/SSH 密钥以外,你总该使用`/dev/urandom` 。 > > > > > > > 该手册页的[当前更新版本](http://man7.org/linux/man-pages/man4/random.4.html)毫不含糊地说: > > > > > > `/dev/random` 接口被认为是遗留接口,并且 `/dev/urandom` 在所有用例中都是首选和足够的,除了在启动早期需要随机性的应用程序;对于这些应用程序,必须替代使用 `getrandom(2)`,因为它将阻塞,直到熵池初始化完成。 > > > > > > > > > 行。我觉得没必要,但如果你真的要用 `/dev/random` 来生成 “长期使用的密钥”,用就是了也没人拦着!你可能需要等几秒钟或者敲几下键盘来增加熵,但这没什么问题。 但求求你们,不要就因为“你想更安全点”就让连个邮件服务器要挂起半天。 ### 正道 本篇文章里的观点显然在互联网上是“小众”的。但如果问一个真正的密码学家,你很难找到一个认同阻塞 `/dev/random` 的人。 比如我们看看 [Daniel Bernstein](http://www.mail-archive.com/cryptography@randombit.net/msg04763.html)(即著名的 djb)的看法: > > 我们密码学家对这种胡乱迷信行为表示不负责。你想想,写 `/dev/random` man 页面的人好像同时相信: > > > * (1) 我们不知道如何用一个 256 位长的 `/dev/random` 的输出来生成一个无限长的随机密钥串流(这是我们需要 `/dev/urandom` 吐出来的),但与此同时 > * (2) 我们却知道怎么用单个密钥来加密一条消息(这是 SSL,PGP 之类干的事情) > > > 对密码学家来说这甚至都不好笑了 > > > 或者 [Thomas Pornin](http://security.stackexchange.com/questions/3936/is-a-rand-from-dev-urandom-secure-for-a-login-key/3939#3939) 的看法,他也是我在 stackexchange 上见过最乐于助人的一位: > > 简单来说,是的。展开说,答案还是一样。`/dev/urandom` 生成的数据可以说和真随机完全无法区分,至少在现有科技水平下。使用比 `/dev/urandom` “更好的“随机性毫无意义,除非你在使用极为罕见的“信息论安全”的加密算法。这肯定不是你的情况,不然你早就说了。 > > > urandom 的 man 页面多多少少有些误导人,或者干脆可以说是错的——特别是当它说 `/dev/urandom` 会“用完熵”以及 “`/dev/random` 是更好的”那几句话; > > > 或者 [Thomas Ptacek](http://sockpuppet.org/blog/2014/02/25/safely-generate-random-numbers/) 的看法,他不设计密码算法或者密码学系统,但他是一家名声在外的安全咨询公司的创始人,这家公司负责很多渗透和破解烂密码学算法的测试: > > 用 urandom。用 urandom。用 urandom。用 urandom。用 urandom。 > > > ### 没有完美 `/dev/urandom` 不是完美的,问题分两层: 在 Linux 上,不像 FreeBSD,`/dev/urandom` 永远不阻塞。记得安全性取决于某个最一开始决定的随机性?种子? Linux 的 `/dev/urandom` 会很乐意给你吐点不怎么随机的随机数,甚至在内核有机会收集一丁点熵之前。什么时候有这种情况?当你系统刚刚启动的时候。 FreeBSD 的行为更正确点:`/dev/random` 和 `/dev/urandom` 是一样的,在系统启动的时候 `/dev/random` 会阻塞到有足够的熵为止,然后它们都再也不阻塞了。 > > 与此同时 Linux 实行了一个新的<ruby> 系统调用 <rt> syscall </rt></ruby>,最早由 OpenBSD 引入叫 `getentrypy(2)`,在 Linux 下这个叫 `getrandom(2)`。这个系统调用有着上述正确的行为:阻塞到有足够的熵为止,然后再也不阻塞了。当然,这是个系统调用,而不是一个字节设备(LCTT 译注:不在 `/dev/` 下),所以它在 shell 或者别的脚本语言里没那么容易获取。这个系统调用 自 Linux 3.17 起存在。 > > > 在 Linux 上其实这个问题不太大,因为 Linux 发行版会在启动的过程中保存一点随机数(这发生在已经有一些熵之后,因为启动程序不会在按下电源的一瞬间就开始运行)到一个种子文件中,以便系统下次启动的时候读取。所以每次启动的时候系统都会从上一次会话里带一点随机性过来。 显然这比不上在关机脚本里写入一些随机种子,因为这样的显然就有更多熵可以操作了。但这样做显而易见的好处就是它不用关心系统是不是正确关机了,比如可能你系统崩溃了。 而且这种做法在你真正第一次启动系统的时候也没法帮你随机,不过好在 Linux 系统安装程序一般会保存一个种子文件,所以基本上问题不大。 虚拟机是另外一层问题。因为用户喜欢克隆它们,或者恢复到某个之前的状态。这种情况下那个种子文件就帮不到你了。 但解决方案依然和用 `/dev/random` 没关系,而是你应该正确的给每个克隆或者恢复的镜像重新生成种子文件。 ### 太长不看 别问,问就是用 `/dev/urandom` ! --- via: <https://www.2uo.de/myths-about-urandom/> 作者:[Thomas Hühn](https://www.2uo.de/) 译者:[Moelf](https://github.com/Moelf) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
在树莓派上安装 Ubuntu MATE
Chinmay
https://itsfoss.com/ubuntu-mate-raspberry-pi/
这篇快速指南告诉你如何在树莓派设备上安装 Ubuntu MATE。
/data/attachment/album/201905/05/134041z07xi6pexyqsc7w3.jpg.thumb.jpg
/data/attachment/album/201905/05/134041z07xi6pexyqsc7w3.jpg
true
false
true
lujun9972
warmfrog
wxy
false
[ "树莓派", "MATE" ]
树莓派
{ "viewnum": 68567, "commentnum": 4, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[ { "postip": "101.247.156.144", "message": "学习来了", "username": "来自北京的 Chrome 69.0|Windows 10 用户", "date": "2019-12-09T20:24:24" }, { "postip": "223.75.230.129", "message": "请问软件更新器在哪可以找到", "username": "来自湖北的 Chrome 76.0|Windows 10 用户", "date": "2020-06-28T09:23:14" }, { "postip": "60.180.187.92", "message": "没有显示器怎么办 还能安装吗?", "username": "来自浙江温州的 Chrome 86.0|Windows 10 用户", "date": "2020-10-30T07:52:45" }, { "postip": "27.18.205.88", "message": "接电视的hdmi", "username": "来自湖北武汉的 Chrome 88.0|GNU/Linux 用户", "date": "2021-01-25T01:21:00" } ]
[]
这篇快速指南告诉你如何在树莓派设备上安装 Ubuntu MATE。
2019-05-05T13:40:49
2019-05-05T13:40:49
10,817
/article-10817-1.html
> > 这篇快速指南告诉你如何在树莓派设备上安装 Ubuntu MATE。 > > > ![](/data/attachment/album/201905/05/134041z07xi6pexyqsc7w3.jpg) [树莓派](https://www.raspberrypi.org/) 是目前最流行的单板机并且是创客首选的板子。[Raspbian](https://www.raspberrypi.org/downloads/) 是基于 Debian 的树莓派官方操作系统。它是轻量级的,内置了教育工具和能在大部分场景下完成工作的工具。 [安装 Raspbian](https://itsfoss.com/tutorial-how-to-install-raspberry-pi-os-raspbian-wheezy/) 安装同样简单,但是与 [Debian](https://www.debian.org/) 随同带来的问题是慢的升级周期和旧的软件包。 在树莓派上运行 Ubuntu 可以给你带来一个更丰富的体验和最新的软件。当在你的树莓派上运行 Ubuntu 时我们有几个选择。 1. [Ubuntu MATE](https://ubuntu-mate.org/) :Ubuntu MATE 是仅有的原生支持树莓派且包含一个完整的桌面环境的发行版。 2. [Ubuntu Server 18.04](https://wiki.ubuntu.com/ARM/RaspberryPi#Recovering_a_system_using_the_generic_kernel) + 手动安装一个桌面环境。 3. 使用 [Ubuntu Pi Flavor Maker](https://ubuntu-pi-flavour-maker.org/download/) 社区构建的镜像,这些镜像只支持树莓派 2B 和 3B 的变种,并且**不能**更新到最新的 LTS 发布版。 第一个选择安装是最简单和快速的,而第二个选择给了你自由选择安装桌面环境的机会。我推荐选择前两个中的任一个。 这里是一些磁盘镜像下载链接。在这篇文章里我只会提及 Ubuntu MATE 的安装。 ### 在树莓派上安装 Ubuntu MATE 去 Ubuntu MATE 的下载页面获取推荐的镜像。 ![](/data/attachment/album/201905/05/134051yum5tbnugvafmmgc.jpg) 试验性的 ARM64 版本只应在你需要在树莓派服务器上运行像 MongoDB 这样的 64 位应用时使用。 * [下载为树莓派准备的 Ubuntu MATE](https://ubuntu-mate.org/download/) #### 第 1 步:设置 SD 卡 镜像文件一旦下载完成后需要解压。你可以简单的右击来提取它。 也可以使用下面命令做同样的事。 ``` xz -d ubuntu-mate***.img.xz ``` 如果你在 Windows 上你可以使用 [7-zip](https://www.7-zip.org/download.html) 替代。 安装 [Balena Etcher](https://www.balena.io/etcher/),我们将使用这个工具将镜像写入 SD 卡。确保你的 SD 卡有至少 8 GB 的容量。 启动 Etcher,选择镜像文件和 SD 卡。 ![](/data/attachment/album/201905/05/134051dqwcy0q0wosezgq3.png) 一旦进度完成 SD 卡就准备好了。 #### 第 2 步:设置树莓派 你可能已经知道你需要一些外设才能使用树莓派,例如鼠标、键盘、HDMI 线等等。你同样可以[不用键盘和鼠标安装树莓派](https://linuxhandbook.com/raspberry-pi-headless-setup/),但是这篇指南不是那样。 * 插入一个鼠标和一个键盘。 * 连接 HDMI 线缆。 * 插入 SD 卡 到 SD 卡槽。 插入电源线给它供电。确保你有一个好的电源供应(5V、3A 至少)。一个不好的电源供应可能降低性能。 #### Ubuntu MATE 安装 一旦你给树莓派供电,你将遇到非常熟悉的 Ubuntu 安装过程。在这里的安装过程相当直接。 ![选择你的键盘布局](/data/attachment/album/201905/05/134055h4yo1bddu6d4dk4z.jpg) ![选择你的时区](/data/attachment/album/201905/05/134055kc2tyc9p44i4ueh9.jpg) 选择你的 WiFi 网络并且在网络连接中输入密码。 ![添加用户名和密码](/data/attachment/album/201905/05/134057kwbdwtpqbnrbl7rr.jpg) 在设置了键盘布局、时区和用户凭证后,在几分钟后你将被带到登录界面。瞧!你快要完成了。 ![](/data/attachment/album/201905/05/134059k35qzzkdz131ttl0.jpg) 一旦登录,第一件事你应该做的是[更新 Ubuntu](https://itsfoss.com/update-ubuntu/)。你应该使用下列命令。 ``` sudo apt update sudo apt upgrade ``` 你同样可以使用软件更新器。 ![](/data/attachment/album/201905/05/134102s2u6gduzmbdkx525.png) 一旦更新完成安装你就可以开始了。你可以根据你的需要继续安装树莓派平台为 GPIO 和其他 I/O 准备的特定软件包。 是什么让你考虑在 Raspberry 上安装 Ubuntu,你对 Raspbian 的体验如何呢?请在下方评论来让我知道。 --- via: <https://itsfoss.com/ubuntu-mate-raspberry-pi/> 作者:[Chinmay](https://itsfoss.com/author/chinmay/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[warmfrog](https://github.com/warmfrog) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
每日安全资讯:几大 Git 平台仓库被劫,黑客欲勒索比特币
安华金和
好消息是,发现黑客实际上没有删除,仅仅是改变了 Git 提交标头,这意味着在某些情况下可以恢复代码提交。
/data/attachment/album/201905/05/135637k4ojja4hnhz14hjq.jpg.thumb.jpg
/data/attachment/album/201905/05/135637k4ojja4hnhz14hjq.jpg
true
false
false
false
[ "GitHub" ]
每日安全资讯
{ "viewnum": 3768, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
好消息是,发现黑客实际上没有删除,仅仅是改变了 Git 提交标头,这意味着在某些情况下可以恢复代码提交。
2019-05-05T13:57:00
2019-05-05T13:57:00
10,818
/article-10818-1.html
![](/data/attachment/album/201905/05/135637k4ojja4hnhz14hjq.jpg) 数百名开发人员的 Git 仓库被黑客删除,取而代之的是赎金要求。攻击于 5 月 3 日开始,包括 GitHub、Bitbucket 和 GitLab在内的代码托管平台都受到了影响。 目前已知的情况是,黑客从受害者的 Git 仓库中删除了所有源代码和最近提交的 Repo,只留下了 0.1 比特币(约 ¥3850)的赎金票据。 黑客声称所有源码都已经下载并存储在他们的一台服务器上,并且给受害者十天时间支付赎金,否则,他们会公开代码。 ![](/data/attachment/album/201905/05/135008gt9vo9u88j86vvzz.jpg) > > 想要恢复丢失的代码并避免泄露:请将 0.1 比特币(BTC)发送至我们的比特币地址 1ES14c7qLb5CYhLMUekctxLgc1FV2Ti9DA,并将您的 Git 登录信息和付款证明发送至 admin@gitsbackup.com。如果您不确定我们是否有您的数据,请与我们联系,我们将向您发送证明,您的代码已下载并备份在我们的服务器上。如果我们在接下来的 10 天内没有收到付款,我们将公开代码或以其他方式使用。 > > > 在 GitHub 上搜索可发现已有 391 个仓库受影响,这些仓库的代码和提交信息均被一个名为 “gitbackup” 的账号删除。 尽管如此,BitcoinAbuse 平台显示,该比特币地址目前还未收到赎金。 ![](/data/attachment/album/201905/05/135020gzybxj3ndun6xhw3.jpg) 一名用户指出 GitHub 在发现攻击后暂停帐户并进行调查:“GitHub 昨晚在他们调查时暂停了我的帐户,希望今天能听到他们的消息,我可能很幸运。” 据 ZDNet 的报道,好消息是,在深入挖掘受害者的案例后,StackExchange 安全论坛的成员发现黑客实际上没有删除,仅仅是改变了 Git 提交标头,这意味着在某些情况下可以恢复代码提交。 最新消息,GitLab 的安全总监 Kathy Wang 告诉 BleepingComputer: > > 我们根据 Stefan Gabos 昨天提交的赎金票据确定了消息来源,并立即开始调查此问题。我们已确定受影响的用户帐户,并且已通知所有这些用户。根据调查结果,我们有充分证据表明,受损帐户的帐户密码以明文形式存储在相关存储库的部署中。我们强烈建议使用密码管理工具以更安全的方式存储密码,并尽可能启用双因素身份验证,这两种方法都可以防止出现此问题。 > > > 目前,平台和用户都在努力解决问题,此处正在持续讨论可能的解决方案。 来源:开源中国 ### 更多资讯 ##### 黑客轻松接管 29 个僵尸网络 只因运营者太菜 ZDNet 网站报导,安全专家一次性接管了 29 个僵尸网络,原理十分简单,利用了运营者技术“太菜”的方法。在采访中,安全专家 Subby 介绍了他接管的这 29 个僵尸网络,他指出其实这些僵尸网络都比较小,最初的机器人数量显示总计将近 40000,但在删除重复数据后,实际数量仅为 25000,这样的数据对于一个单独的 IoT 僵尸网络来说都是很小的,更不用说是 29 个的总和了。 来源: 开源中国 详情: <http://t.cn/EoPirDH> ##### 德国警方查封全球第二大暗网黑市 Wall Street Market 据外媒 Techspot 报道,近日警方已查封全球第二大暗网黑市。德国当局领导的这项努力导致三名嫌疑人被捕,这是近两年调查的结果。警方还没收了超过 55 万欧元现金以及多辆车、电脑,数据存储和“ 6 位数的加密货币比特币和门罗币”。另外两名嫌疑人在美国被捕,被描述为“销售致幻毒品最多的供应商”。 来源: cnBeta.COM 详情: <http://t.cn/EoPiF9c> ##### 何时能不被黑客鱼肉?D-Link 智能摄像头又出事了 近些年来各家厂商把“智能”摄像头市场做的是风生水起,许多消费者也想靠这些大眼睛来守护一方平安。对普通人来说,这些智能化的摄像头确实相当方便,只需连上网络,你就能在千里之外获取自己需要的画面。不过,在你享受方便之余又很容易掉入陷阱,因为安全漏洞背后藏着的坏人太可怕了。 来源: 雷锋网 详情: <http://t.cn/EoP67yZ> ##### Mozilla 曝出大乌龙 证书过期导致全球 Firefox 用户无法使用扩展 今天早上 Mozilla 和全球的 Firefox 用户开了个不大不小的玩笑,许多人一大早起来打开浏览器发现所有的扩展都无法使用,就连手机版也是如此。重装 Firefox 或者重装所有的插件都无济于事,在 Bugzilla 上提交的报告中我们了解到,这是由于 Mozilla 的官方证书没有及时续期所致。 来源: cnBeta.COM 详情: <http://t.cn/EoP6b8B> (信息来源于网络,安华金和搜集整理)
DomTerm:一款为 Linux 打造的终端模拟器
Per Bothner
https://opensource.com/article/18/1/introduction-domterm-terminal-emulator
了解一下 DomTerm,这是一款终端模拟器和复用器,带有 HTML 图形和其它不多见的功能。
/data/attachment/album/201905/06/091241woh9200d9hidyl33.jpg.thumb.jpg
/data/attachment/album/201905/06/091241woh9200d9hidyl33.jpg
true
false
true
tomjlw
wxy
false
[ "DomTerm", "终端" ]
分享
{ "viewnum": 5859, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
了解一下 DomTerm,这是一款终端模拟器和复用器,带有 HTML 图形和其它不多见的功能。
2019-05-06T09:12:52
2019-05-06T09:12:52
10,819
/article-10819-1.html
> > 了解一下 DomTerm,这是一款终端模拟器和复用器,带有 HTML 图形和其它不多见的功能。 > > > ![](/data/attachment/album/201905/06/091241woh9200d9hidyl33.jpg) [DomTerm](http://domterm.org/) 是一款现代化的终端模拟器,它使用浏览器引擎作为 “GUI 工具包”。这就支持了一些相关的特性,例如可嵌入图像和链接、HTML 富文本以及可折叠(显示/隐藏)命令。除此以外,它看起来感觉就像一个功能完整、独立的终端模拟器,有着出色 xterm 兼容性(包括鼠标处理和 24 位色)和恰当的 “装饰” (菜单)。另外它内置支持了会话管理和副窗口(如同 `tmux` 和 `GNU Screen` 中一样)、基本输入编辑(如在 `readline` 中)以及分页(如在 `less` 中)。 ![](/data/attachment/album/201905/06/091255jm85txz24tm6ub55.png) *图 1: DomTerminal 终端模拟器。* 在以下部分我们将看一看这些特性。我们将假设你已经安装好了 `domterm` (如果你需要获取并构建 Dormterm 请跳到本文最后)。开始之前先让我们概览一下这项技术。 ### 前端 vs. 后端 DomTerm 大部分是用 JavaScript 写的,它运行在一个浏览器引擎中。它可以是像例如 Chrome 或者 Firefox 一样的桌面浏览器(见图 3),也可以是一个内嵌的浏览器。使用一个通用的网页浏览器没有问题,但是用户体验却不够好(因为菜单是为通用的网页浏览而不是为了终端模拟器所打造),并且其安全模型也会妨碍使用。因此使用内嵌的浏览器更好一些。 目前以下这些是支持的: * qdomterm,使用了 Qt 工具包 和 QtWebEngine * 一个内嵌的 [Electron](https://electronjs.org/)(见图 1) * atom-domterm 以 [Atom 文本编辑器](https://atom.io/)(同样基于 Electron)包的形式运行 DomTerm,并和 Atom 面板系统集成在一起(见图 2) * 一个为 JavaFX 的 WebEngine 包装器,这对 Java 编程十分有用(见图 4) * 之前前端使用 [Firefox-XUL](https://en.wikipedia.org/wiki/XUL) 作为首选,但是 Mozilla 已经终止了 XUL ![在 Atom 编辑器中的 DomTerm 终端面板](/data/attachment/album/201905/06/091255hortir41xnxitnrr.png "DomTerm terminal panes in Atom editor") *图 2:在 Atom 编辑器中的 DomTerm 终端面板。* 目前,Electron 前端可能是最佳选择,紧随其后的是 Qt 前端。如果你使用 Atom,atom-domterm 也工作得相当不错。 后端服务器是用 C 写的。它管理着伪终端(PTY)和会话。它同样也是一个为前端提供 Javascript 和其它文件的 HTTP 服务器。`domterm` 命令启动终端任务和执行其它请求。如果没有服务器在运行,domterm 就会自己来服务。后端与服务器之间的通讯通常是用 WebSockets(在服务器端是[libwebsockets](https://libwebsockets.org/))完成的。然而,JavaFX 的嵌入既不用 Websockets 也不用 DomTerm 服务器。相反 Java 应用直接通过 Java-Javascript 桥接进行通讯。 ### 一个稳健的可兼容 xterm 的终端模拟器 DomTerm 看上去感觉像一个现代的终端模拟器。它处理鼠标事件、24 位色、Unicode、倍宽字符(CJK)以及输入方式。DomTerm 在 [vttest 测试套件](http://invisible-island.net/vttest/) 上工作地十分出色。 其不同寻常的特性包括: **展示/隐藏按钮(“折叠”):** 小三角(如上图 2)是隐藏/展示相应输出的按钮。仅需在[提示符](http://domterm.org/Shell-prompts.html)中添加特定的[转义字符](http://domterm.org/Wire-byte-protocol.html)就可以创建按钮。 **对于 readline 和类似输入编辑器的鼠标点击支持:** 如果你点击输入区域(黄色),DomTerm 会向应用发送正确的方向键按键序列。(可以通过提示符中的转义字符启用这一特性,你也可以通过 `Alt+点击` 强制使用。) **用 CSS 样式化终端:** 这通常是在 `~/.domterm/settings.ini` 里完成的,保存时会自动重载。例如在图 2 中,设置了终端专用的背景色。 ### 一个更好的 REPL 控制台 一个经典的终端模拟器基于长方形的字符单元格工作的。这在 REPL(命令行)上没问题,但是并不理想。这里有些通常在终端模拟器中不常见的 REPL 很有用的 DomTerm 特性: **一个能“打印”图片、图形、数学公式或者一组可点击的链接的命令:** 应用可以发送包含几乎任何 HTML 的转义字符。(HTML 会被剔除部分,以移除 JavaScript 和其它危险特性。) 图 3 显示了来自 [gnuplot](http://www.gnuplot.info/) 会话的一个片段。Gnuplot(2.1 或者跟高版本)支持 DormTerm 作为终端类型。图形输出被转换成 [SVG 图片](https://developer.mozilla.org/en-US/docs/Web/SVG),然后被打印到终端。我的博客帖子[在 DormTerm 上的 Gnuplot 展示](http://per.bothner.com/blog/2016/gnuplot-in-domterm/)在这方面提供了更多信息。 ![](/data/attachment/album/201905/06/091256tvjiydbevc5mwir7.png) *图 3:Gnuplot 截图。* [Kawa](https://www.gnu.org/software/kawa/) 语言有一个创建并转换[几何图像值](https://www.gnu.org/software/kawa/Composable-pictures.html)的库。如果你将这样的图片值打印到 DomTerm 终端,图片就会被转换成 SVG 形式并嵌入进输出中。 ![](/data/attachment/album/201905/06/091256g9sv5wtlvlwvbqpi.png) *图 4:Kawa 中可计算的几何形状。* **富文本输出:** 有着 HTML 样式的帮助信息更加便于阅读,看上去也更漂亮。图片 1 的下面面板展示 `dormterm help` 的输出。(如果没在 DomTerm 下运行的话输出的是普通文本。)注意自带的分页器中的 `PAUSED` 消息。 **包括可点击链接的错误消息:** DomTerm 可以识别语法 `filename:line:column` 并将其转化成一个能在可定制文本编辑器中打开文件并定位到行的链接。(这适用于相对路径的文件名,如果你用 `PROMPT_COMMAND` 或类似的跟踪目录。) 编译器可以侦测到它在 DomTerm 下运行,并直接用转义字符发出文件链接。这比依赖 DomTerm 的样式匹配要稳健得多,因为它可以处理空格和其他字符并且无需依赖目录追踪。在图 4 中,你可以看到来自 [Kawa Compiler](https://www.gnu.org/software/kawa/) 的错误消息。悬停在文件位置上会使其出现下划线,`file:` URL 出现在 `atom-domterm` 消息栏(窗口底部)中。(当不用 atom-domterm 时,这样的消息会在一个浮层的框中显示,如图 1 中所看到的 `PAUSED` 消息所示。) 点击链接时的动作是可以配置的。默认对于带有 `#position` 后缀的 `file:` 链接的动作是在文本编辑器中打开那个文件。 **结构化内部表示:**以下内容均以内部节点结构表示:命令、提示符、输入行、正常和错误输出、标签,如果“另存为 HTML”,则保留结构。HTML 文件与 XML 兼容,因此你可以使用 XML 工具搜索或转换输出。命令 `domterm view-saved` 会以一种启用命令折叠(显示/隐藏按钮处于活动状态)和重新调整窗口大小的方式打开保存的 HTML 文件。 **内建的 Lisp 样式优美打印:** 你可以在输出中包括优美打印指令(比如,grouping),这样断行会根据窗口大小调整而重新计算。查看我的文章 [DomTerm 中的动态优美打印](http://per.bothner.com/blog/2017/dynamic-prettyprinting/)以更深入探讨。 **基本的内建行编辑**,带着历史记录(像 GNU readline 一样): 这使用浏览器自带的编辑器,因此它有着优秀的鼠标和选择处理机制。你可以在正常字符模式(大多数输入的字符被指接送向进程);或者行模式(通常的字符是直接插入的,而控制字符导致编辑操作,回车键会向进程发送被编辑行)之间转换。默认的是自动模式,根据 PTY 是在原始模式还是终端模式中,DomTerm 在字符模式与行模式间转换。 **自带的分页器**(类似简化版的 `less`):键盘快捷键控制滚动。在“页模式”中,输出在每个新的屏幕(或者单独的行,如果你想一行行地向前移)后暂停;页模式对于用户输入简单智能,因此(如果你想的话)你无需阻碍交互式程序就可以运行它。 ### 多路复用和会话 **标签和平铺:** 你不仅可以创建多个终端标签,也可以平铺它们。你可以要么使用鼠标或键盘快捷键来创建或者切换面板和标签。它们可以用鼠标重新排列并调整大小。这是通过 [GoldenLayout](https://golden-layout.com/) JavaScript 库实现的。图 1 展示了一个有着两个面板的窗口。上面的有两个标签,一个运行 [Midnight Commander](https://midnight-commander.org/);底下的面板以 HTML 形式展示了 `dormterm help` 输出。然而相反在 Atom 中我们使用其自带的可拖拽的面板和标签。你可以在图 2 中看到这个。 **分离或重接会话:** 与 `tmux` 和 GNU `screen` 类似,DomTerm 支持会话安排。你甚至可以给同样的会话接上多个窗口或面板。这支持多用户会话分享和远程链接。(为了安全,同一个服务器的所有会话都需要能够读取 Unix 域接口和一个包含随机密钥的本地文件。当我们有了良好、安全的远程链接,这个限制将会有所放松。) **domterm 命令** 类似与 `tmux` 和 GNU `screen`,它有多个选项可以用于控制或者打开单个或多个会话的服务器。主要的差别在于,如果它没在 DomTerm 下运行,`dormterm` 命令会创建一个新的顶层窗口,而不是在现有的终端中运行。 与 `tmux` 和 `git` 类似,`dormterm` 命令有许多子命令。一些子命令创建窗口或者会话。另一些(例如“打印”一张图片)仅在现有的 DormTerm 会话下起作用。 命令 `domterm browse` 打开一个窗口或者面板以浏览一个指定的 URL,例如浏览文档的时候。 ### 获取并安装 DomTerm DomTerm 可以从其 [Github 仓库](https://github.com/PerBothner/DomTerm)获取。目前没有提前构建好的包,但是有[详细指导](http://domterm.org/Downloading-and-building.html)。所有的前提条件在 Fedora 27 上都有,这使得其特别容易被搭建。 --- via: <https://opensource.com/article/18/1/introduction-domterm-terminal-emulator> 作者:[Per Bothner](https://opensource.com/users/perbothner) 译者:[tomjlw](https://github.com/tomjlw) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
如何安装和配置 Chrony 作为 NTP 客户端?
Magesh Maruthamuthu
https://www.2daygeek.com/configure-ntp-client-using-chrony-in-linux/
Chrony 是 NTP 客户端的替代品。它能以更精确的时间和更快的速度同步时钟,并且它对于那些不是全天候在线的系统非常有用。
/data/attachment/album/201905/06/145607nayfax0vxc3vy73o.jpg.thumb.jpg
/data/attachment/album/201905/06/145607nayfax0vxc3vy73o.jpg
true
false
true
lujun9972
arrowfeng
wxy
false
[ "NTP" ]
系统运维
{ "viewnum": 9253, "commentnum": 0, "favtimes": 3, "sharetimes": 0, "likes": 0 }
[]
[ { "raid": 10811, "displayorder": 0 }, { "raid": 10951, "displayorder": 0 } ]
Chrony 是 NTP 客户端的替代品。它能以更精确的时间和更快的速度同步时钟,并且它对于那些不是全天候在线的系统非常有用。
2019-05-06T14:56:18
2019-05-06T14:56:18
10,820
/article-10820-1.html
![](/data/attachment/album/201905/06/145607nayfax0vxc3vy73o.jpg) NTP 服务器和 NTP 客户端可以让我们通过网络来同步时钟。之前,我们已经撰写了一篇关于 [NTP 服务器和 NTP 客户端的安装与配置](/article-10811-1.html) 的文章。 如果你想看这些内容,点击上述的 URL 访问。 ### Chrony 客户端 Chrony 是 NTP 客户端的替代品。它能以更精确的时间和更快的速度同步时钟,并且它对于那些不是全天候在线的系统非常有用。 chronyd 更小、更节能,它占用更少的内存且仅当需要时它才唤醒 CPU。即使网络拥塞较长时间,它也能很好地运行。它支持 Linux 上的硬件时间戳,允许在本地网络进行极其准确的同步。 它提供下列两个服务。 * `chronyc`:Chrony 的命令行接口。 * `chronyd`:Chrony 守护进程服务。 ### 如何在 Linux 上安装和配置 Chrony? 由于安装包在大多数发行版的官方仓库中可用,因此直接使用包管理器去安装它。 对于 Fedora 系统,使用 [DNF 命令](https://www.2daygeek.com/dnf-command-examples-manage-packages-fedora-system/) 去安装 chrony。 ``` $ sudo dnf install chrony ``` 对于 Debian/Ubuntu 系统,使用 [APT-GET 命令](https://www.2daygeek.com/apt-get-apt-cache-command-examples-manage-packages-debian-ubuntu-systems/) 或者 [APT 命令](https://www.2daygeek.com/apt-command-examples-manage-packages-debian-ubuntu-systems/) 去安装 chrony。 ``` $ sudo apt install chrony ``` 对基于 Arch Linux 的系统,使用 [Pacman 命令](https://www.2daygeek.com/pacman-command-examples-manage-packages-arch-linux-system/) 去安装 chrony。 ``` $ sudo pacman -S chrony ``` 对于 RHEL/CentOS 系统,使用 [YUM 命令](https://www.2daygeek.com/yum-command-examples-manage-packages-rhel-centos-systems/) 去安装 chrony。 ``` $ sudo yum install chrony ``` 对于 openSUSE Leap 系统,使用 [Zypper 命令](https://www.2daygeek.com/zypper-command-examples-manage-packages-opensuse-system/) 去安装 chrony。 ``` $ sudo zypper install chrony ``` 在这篇文章中,我们将使用下列设置去测试。 * NTP 服务器:主机名:CentOS7.2daygeek.com,IP:192.168.1.5,OS:CentOS 7 * Chrony 客户端:主机名:Ubuntu18.2daygeek.com,IP:192.168.1.3,OS:Ubuntu 18.04 服务器的安装请访问 [在 Linux 上安装和配置 NTP 服务器](/article-10811-1.html) 的 URL。 我已经在 CentOS7.2daygeek.com 这台主机上安装和配置了 NTP 服务器,因此,将其附加到所有的客户端机器上。此外,还包括其他所需信息。 `chrony.conf` 文件的位置根据你的发行版不同而不同。 对基于 RHEL 的系统,它位于 `/etc/chrony.conf`。 对基于 Debian 的系统,它位于 `/etc/chrony/chrony.conf`。 ``` # vi /etc/chrony/chrony.conf server CentOS7.2daygeek.com prefer iburst keyfile /etc/chrony/chrony.keys driftfile /var/lib/chrony/chrony.drift logdir /var/log/chrony maxupdateskew 100.0 makestep 1 3 cmdallow 192.168.1.0/24 ``` 更新配置后需要重启 Chrony 服务。 对于 sysvinit 系统。基于 RHEL 的系统需要去运行 `chronyd` 而不是 `chrony`。 ``` # service chronyd restart # chkconfig chronyd on ``` 对于 systemctl 系统。 基于 RHEL 的系统需要去运行 `chronyd` 而不是 `chrony`。 ``` # systemctl restart chronyd # systemctl enable chronyd ``` 使用像 `tacking`、`sources` 和 `sourcestats` 这样的子命令去检查 chrony 的同步细节。 去检查 chrony 的追踪状态。 ``` # chronyc tracking Reference ID : C0A80105 (CentOS7.2daygeek.com) Stratum : 3 Ref time (UTC) : Thu Mar 28 05:57:27 2019 System time : 0.000002545 seconds slow of NTP time Last offset : +0.001194361 seconds RMS offset : 0.001194361 seconds Frequency : 1.650 ppm fast Residual freq : +184.101 ppm Skew : 2.962 ppm Root delay : 0.107966967 seconds Root dispersion : 1.060455322 seconds Update interval : 2.0 seconds Leap status : Normal ``` 运行 `sources` 命令去显示当前时间源的信息。 ``` # chronyc sources 210 Number of sources = 1 MS Name/IP address Stratum Poll Reach LastRx Last sample =============================================================================== ^* CentOS7.2daygeek.com 2 6 17 62 +36us[+1230us] +/- 1111ms ``` `sourcestats` 命令显示有关 chronyd 当前正在检查的每个源的漂移率和偏移估计过程的信息。 ``` # chronyc sourcestats 210 Number of sources = 1 Name/IP Address NP NR Span Frequency Freq Skew Offset Std Dev ============================================================================== CentOS7.2daygeek.com 5 3 71 -97.314 78.754 -469us 441us ``` 当 chronyd 配置为 NTP 客户端或对等端时,你就能通过 `chronyc ntpdata` 命令向每一个 NTP 源发送/接收时间戳模式和交错模式的报告。 ``` # chronyc ntpdata Remote address : 192.168.1.5 (C0A80105) Remote port : 123 Local address : 192.168.1.3 (C0A80103) Leap status : Normal Version : 4 Mode : Server Stratum : 2 Poll interval : 6 (64 seconds) Precision : -23 (0.000000119 seconds) Root delay : 0.108994 seconds Root dispersion : 0.076523 seconds Reference ID : 85F3EEF4 () Reference time : Thu Mar 28 06:43:35 2019 Offset : +0.000160221 seconds Peer delay : 0.000664478 seconds Peer dispersion : 0.000000178 seconds Response time : 0.000243252 seconds Jitter asymmetry: +0.00 NTP tests : 111 111 1111 Interleaved : No Authenticated : No TX timestamping : Kernel RX timestamping : Kernel Total TX : 46 Total RX : 46 Total valid RX : 46 ``` 最后运行 `date` 命令。 ``` # date Thu Mar 28 03:08:11 CDT 2019 ``` 为了立即跟进系统时钟,绕过任何正在进行的缓步调整,请以 root 身份运行以下命令(以手动调整系统时钟)。 ``` # chronyc makestep ``` --- via: <https://www.2daygeek.com/configure-ntp-client-using-chrony-in-linux/> 作者:[Magesh Maruthamuthu](https://www.2daygeek.com/author/magesh/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[arrowfeng](https://github.com/arrowfeng) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
每日安全资讯:国家互联网应急中心开通勒索病毒免费查询服务
安华金和
监测发现我国境内疑似感染 WannaCry 勒索病毒的计算机数量超过 30 万台,仍有大量的计算机未安装“永恒之蓝”漏洞补丁和杀毒软件。
/data/attachment/album/201905/06/151140a9tai7et4te4r9ig.jpg.thumb.jpg
/data/attachment/album/201905/06/151140a9tai7et4te4r9ig.jpg
true
false
false
false
[ "WannaCry" ]
每日安全资讯
{ "viewnum": 4049, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
监测发现我国境内疑似感染 WannaCry 勒索病毒的计算机数量超过 30 万台,仍有大量的计算机未安装“永恒之蓝”漏洞补丁和杀毒软件。
2019-05-06T15:12:00
2019-05-06T15:12:00
10,821
/article-10821-1.html
从国家互联网应急中心获悉,为了有效控制 WannaCry 勒索病毒的传播感染,国家互联网应急中心近日开通了该病毒感染数据免费查询服务。2017 年 5 月 12 日,WannaCry 勒索病毒利用 Windows SMB(“永恒之蓝”)漏洞在全球快速传播,造成全球计算机大范围感染。 ![](/data/attachment/album/201905/06/151140a9tai7et4te4r9ig.jpg) 国家互联网应急中心介绍说,为实时掌握 WannaCry 勒索病毒及其变种在我国的传播感染情况,国家互联网应急中心持续开展针对该病毒的监测工作。根据分析,WannaCry 勒索病毒成功感染计算机并运行后,首先会主动连接一个开关域名。如果与开关域名通信成功,该病毒将不运行勒索行为,但病毒文件仍驻留在被感染计算机中;如果通信失败,该病毒将运行勒索行为加密计算机中的文件,并继续向局域网或互联网上的其他计算机传播。 据悉,截至 2019 年 4 月 9 日,国家互联网应急中心监测发现我国境内疑似感染 WannaCry 勒索病毒的计算机数量超过 30 万台,仍有大量的计算机未安装“永恒之蓝”漏洞补丁和杀毒软件。我国计算机感染 WannaCry 勒索病毒疫情依然比较严峻。 为了有效控制 WannaCry 勒索病毒的传播感染,国家互联网应急中心开通了该病毒感染数据免费查询服务。查询说明如下: 1、WannaCry 勒索病毒暂只能感染 Windows 操作系统,请用户在 Windows 操作系统上的浏览器中输入查询地址打开查询页面进行查询,查询地址为:h ttp://wanna-check.cert.org.cn。 2、若提示 IP 地址承载的计算机受到感染,建议使用 WannaCry 勒索病毒专杀工具进行查杀,并及时修复相关漏洞。 3、如果使用宽带拨号上网或手机上网,由于 IP 地址经常变化,会导致查询结果不准确,仅供参考。 来源:快科技 ### 更多资讯 ##### 中消协等发智能锁试验报告:半数存指纹识别安全风险 中国消费者协会、四川省保护消费者权益委员会、 深圳市消费者委员会、佛山市消费者委会今天联合发布智能门锁比较试验报告,29 款样品中,48.3% 的样品密码开启安全存在风险,50% 的样品指纹识别开启安全存在风险,85.7% 的样品信息识别卡开启安存在风险。 来源: 央视新闻客户端 详情: <http://t.cn/EoLwr4r> ##### 如何让过期证书事故不再发生 证书过期是一种常见的问题,但其影响面却可能极其广泛。此类事故频繁发生是因为安装和更新证书是一个乏味的手动过程。证书过期的现象已经有了改善,Let’s Encrypt 和 SSLMate 等 CA 开始提供证书自动更新的方法。 来源: solidot.org 详情: <http://t.cn/EoLwsEt> ##### 男子购买“教程”掌握点餐软件漏洞 边消费边退代金券大肆实施盗窃 如今,各大餐饮行业手机自助点餐软件兴起,特别是在快餐行业中,大大缓解了排队点餐的尴尬。但是由于软件程序中难免存在漏洞,也成为滋生犯罪的土壤。近日,徐汇区检察院对一起利用手机自助点餐软件漏洞,盗窃某知名快餐公司钱款的被告人钟某某提起公诉。 来源: 新民晚报 详情: <http://t.cn/EoLAw0A> ##### 中国一智能城市监控系统数据库被发现没有密码保护 智能城市设计旨在让居民生活更轻松,但如果它的监控系统数据泄露?John Wethington 报告一个智能城市数据库没有密码保护可以直接通过浏览器访问。 来源:solidot.org 详情: <http://t.cn/EoLAb4Q> (信息来源于网络,安华金和搜集整理)
比容器快 10-20 倍的 unikernel 应用
Sandra Henry-stocker
https://www.networkworld.com/article/3387299/how-to-quickly-deploy-run-linux-applications-as-unikernels.html
unikernel 是一种用于在云基础架构上部署应用程序的更小、更快、更安全的方式。使用 NanoVMs OPS,任何人都可以将 Linux 应用程序作为 unikernel 运行而无需额外编码。它们通常比容器快 10 到 20 倍。
/data/attachment/album/201905/06/153635h8eokokeouud06kk.jpg.thumb.jpg
/data/attachment/album/201905/06/153635h8eokokeouud06kk.jpg
true
false
true
lujun9972
geekpi
wxy
false
[ "应用", "unikernel" ]
技术
{ "viewnum": 7660, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
unikernel 是一种用于在云基础架构上部署应用程序的更小、更快、更安全的方式。使用 NanoVMs OPS,任何人都可以将 Linux 应用程序作为 unikernel 运行而无需额外编码。它们通常比容器快 10 到 20 倍。
2019-05-06T15:36:00
2019-05-06T15:36:00
10,822
/article-10822-1.html
unikernel 是一种用于在云基础架构上部署应用程序的更小、更快、更安全的方式。使用 NanoVMs OPS,任何人都可以将 Linux 应用程序作为 unikernel 运行而无需额外编码。 ![Marcho Verch \(CC BY 2.0\)](/data/attachment/album/201905/06/153635h8eokokeouud06kk.jpg) 随着 unikernel 的出现,构建和部署轻量级应用变得更容易、更可靠。虽然功能有限,但 unikernal 在速度和安全性方面有许多优势。 ### 什么是 unikernel? unikernel 是一种非常特殊的<ruby> 单一地址空间 <rt> single-address-space </rt></ruby>的机器镜像,类似于已经主导大批互联网的云应用,但它们相当小并且是单一用途的。它们很轻,只提供所需的资源。它们加载速度非常快,而且安全性更高 —— 攻击面非常有限。单个可执行文件中包含所需的所有驱动、I/O 例程和支持库。其最终生成的虚拟镜像可以无需其它部分就可以引导和运行。它们通常比容器快 10 到 20 倍。 潜在的攻击者无法进入 shell 并获得控制权,因为它没有 shell。他们无法获取系统的 `/etc/passwd`或 `/etc/shadow` 文件,因为这些文件不存在。创建一个 unikernel 就像应用将自己变成操作系统。使用 unikernel,应用和操作系统将成为一个单一的实体。你忽略了不需要的东西,从而消除了漏洞并大幅提高性能。 简而言之,unikernel: * 提供更高的安全性(例如,shell 破解代码无用武之地) * 比标准云应用占用更小空间 * 经过高度优化 * 启动非常快 ### unikernel 有什么缺点吗? unikernel 的唯一严重缺点是你必须构建它们。对于许多开发人员来说,这是一个巨大的进步。由于应用的底层特性,将应用简化为所需的内容然后生成紧凑、平稳运行的应用可能很复杂。在过去,你几乎必须是系统开发人员或底层程序员才能生成它们。 ### 这是怎么改变的? 最近(2019 年 3 月 24 日)[NanoVMs](https://nanovms.com/) 宣布了一个将任何 Linux 应用加载为 unikernel 的工具。使用 NanoVMs OPS,任何人都可以将 Linux 应用作为 unikernel 运行而无需额外编码。该应用还可以更快、更安全地运行,并且成本和开销更低。 ### 什么是 NanoVMs OPS? NanoVMs 是给开发人员的 unikernel 工具。它能让你运行各种企业级软件,但仍然可以非常严格地控制它的运行。 使用 OPS 的其他好处包括: * 无需经验或知识,开发人员就可以构建 unikernel。 * 该工具可在笔记本电脑上本地构建和运行 unikernel。 * 无需创建帐户,只需下载并一个命令即可执行 OPS。 NanoVMs 的介绍可以在 [Youtube 上的 NanoVMs 视频](https://www.youtube.com/watch?v=VHWDGhuxHPM) 上找到。你还可以查看该公司的 [LinkedIn 页面](https://www.linkedin.com/company/nanovms/)并在[此处](https://nanovms.com/security)阅读有关 NanoVMs 安全性的信息。 还有有关如何[入门](https://nanovms.gitbook.io/ops/getting_started)的一些信息。 --- via: <https://www.networkworld.com/article/3387299/how-to-quickly-deploy-run-linux-applications-as-unikernels.html> 作者:[Sandra Henry-Stocker](https://www.networkworld.com/author/Sandra-Henry_Stocker/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
12 个可替代树莓派的单板机
Ankush Das
https://itsfoss.com/raspberry-pi-alternatives/
正在寻找树莓派的替代品?这里有一些单板机可以满足你的 DIY 渴求。
/data/attachment/album/201905/07/103003ewb00iipi2bbipi3.png.thumb.jpg
/data/attachment/album/201905/07/103003ewb00iipi2bbipi3.png
true
false
true
lujun9972
warmfrog
wxy
false
[ "树莓派", "单板机" ]
树莓派
{ "viewnum": 38477, "commentnum": 3, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[ { "postip": "211.139.108.45", "message": "翻译读起来怪怪的,像机翻的感觉", "username": "davidxj [Firefox 66.0|Windows 10]", "date": "2019-05-07T10:42:26" }, { "postip": "112.64.40.236", "message": "这么多里咋还没有BeagleBone呢?", "username": "来自上海的 Sina Weibo 8.0|iOS 12.2 用户", "date": "2019-05-07T11:04:28" }, { "postip": "39.189.15.145", "message": "Lattle panda:??????????", "username": "来自浙江的 Chrome 97.0|Windows 10 用户", "date": "2022-02-01T18:33:58" } ]
[]
正在寻找树莓派的替代品?这里有一些单板机可以满足你的 DIY 渴求。
2019-05-07T10:30:00
2019-05-07T10:30:00
10,823
/article-10823-1.html
> > 正在寻找树莓派的替代品?这里有一些单板机可以满足你的 DIY 渴求。 > > > 树莓派是当前最流行的单板机。你可以在你的 DIY 项目中使用它,或者用它作为一个成本效益高的系统来学习编代码,或者为了你的便利,利用一个[流媒体软件](https://itsfoss.com/best-linux-media-server/)运行在上面作为流媒体设备。 你可以使用树莓派做很多事,但它不是各种极客的最终解决方案。一些人可能在寻找更便宜的开发板,一些可能在寻找更强大的。 无论是哪种情况,我们都有很多原因需要树莓派的替代品。因此,在这片文章里,我们将讨论最好的 12 个我们认为能够替代树莓派的单板机。 ![](/data/attachment/album/201905/07/103003ewb00iipi2bbipi3.png) ### 满足你 DIY 渴望的树莓派替代品 这个列表没有特定的顺序排名。链接的一部分是赞助链接。请阅读我们的[赞助政策](https://itsfoss.com/affiliate-policy/)。 #### 1、Onion Omega2+ ![](/data/attachment/album/201905/07/103005d8pjpj6mngdpd93n.jpg) 只要 $13,Omega2+ 是这里你可以找到的最便宜的 IoT 单板机设备。它运行 LEDE(Linux 嵌入式开发环境)Linux 系统 —— 这是一个基于 [OpenWRT](https://openwrt.org/) 的发行版。 由于运行一个自定义 Linux 系统,它的组成元件、花费和灵活性使它完美适合几乎所有类型的 IoT 应用。 你可以在[亚马逊商城的 Onion Omega 套件](https://amzn.to/2Xj8pkn)或者从他们的网站下单,可能会收取额外的邮费。 **关键参数:** * MT7688 SoC * 2.4 GHz IEEE 802.11 b/g/n WiFi * 128 MB DDR2 RAM * 32 MB on-board flash storage * MicroSD Slot * USB 2.0 * 12 GPIO Pins [查看官网](https://onion.io/store/omega2p/) #### 2、NVIDIA Jetson Nano Developer Kit 这是来自 NVIDIA 的只要 **$99** 的非常独特和有趣的树莓派替代品。是的,它不是每个人都能充分利用的设备 —— 只为特定的一组极客或者开发者而生。 NVIDIA 使用下面的用例解释它: > > NVIDIA® Jetson Nano™ Developer Kit 是一个小的、强大的计算机,可以让你并行运行多个神经网络的应用像图像分类、对象侦察、图像分段、语音处理。全部在一个易于使用的、运行功率只有 5 瓦特的平台上。 > > > nvidia > > > 因此,基本上,如果你正在研究 AI 或者深度学习,你可以充分利用开发设备。如果你很好奇,该设备的产品计算模块将在 2019 年 7 月到来。 **关键参数:** * CPU: Quad-core ARM A57 @ 1.43 GHz * GPU: 128-core Maxwell * RAM: 4 GB 64-bit LPDDR4 25.6 GB/s * Display: HDMI 2.0 * 4 x USB 3.0 and eDP 1.4 [查看官网](https://developer.nvidia.com/embedded/buy/jetson-nano-devkit) #### 3、ASUS Tinker Board S ![](/data/attachment/album/201905/07/103007vaot8vvf7v7opbob.jpg) ASUS Tinker Board S 不是大多数人可负担得起的树莓派的替换设备 (**$82**,[亚马逊商城](https://amzn.to/2XfkOFT)),但是它是一个强大的替代品。它的特点是它有你通常可以发现与标准树莓派 3 一样的 40 针脚的连接器,但是提供了强大的处理器和 GPU。同样的,Tinker Board S 的大小恰巧和标准的树莓派3 一样大。 这个板子的主要亮点是 16 GB [eMMC](https://en.wikipedia.org/wiki/MultiMediaCard) (用外行术语说,它的板上有一个类似 SSD 的存储单元使它工作时运行的更快。) 的存在。 **关键参数:** * Rockchip Quad-Core RK3288 processor * 2 GB DDR3 RAM * Integrated Graphics Processor * ARM® Mali™-T764 GPU * 16 GB eMMC * MicroSD Card Slot * 802.11 b/g/n, Bluetooth V4.0 + EDR * USB 2.0 * 28 GPIO pins * HDMI Interface [查看网站](https://www.asus.com/in/Single-Board-Computer/Tinker-Board-S/) #### 4、ClockworkPi ![](/data/attachment/album/201905/07/103008roho7fob9fz6c74o.jpg) 如果你正在想方设法组装一个模块化的复古的游戏控制台,Clockwork Pi 可能就是你需要的,它通常是 [GameShell Kit](https://itsfoss.com/gameshell-console/) 的一部分。然而,你可以 使用 $49 单独购买板子。 它紧凑的大小、WiFi 连接性和 micro HDMI 端口的存在使它成为许多方面的选择。 **关键参数:** * Allwinner R16-J Quad-core Cortex-A7 CPU @1.2GHz * Mali-400 MP2 GPU * RAM: 1GB DDR3 * WiFi & Bluetooth v4.0 * Micro HDMI output * MicroSD Card Slot [查看官网](https://www.clockworkpi.com/product-page/cpi-v3-1) #### 5、Arduino Mega 2560 ![](/data/attachment/album/201905/07/103009dnqig1uguq0zgnqg.jpg) 如果你正在研究机器人项目或者你想要一个 3D 打印机 —— Arduino Mega 2560 将是树莓派的便利的替代品。不像树莓派,它是基于微控制器而不是微处理器的。 在他们的[官网](https://store.arduino.cc/usa/mega-2560-r3),你需要花费 $38.50,或者在[在亚马逊商城是 $33](https://amzn.to/2KCi041)。 **关键参数:** * Microcontroller: ATmega2560 * Clock Speed: 16 MHz * Digital I/O Pins: 54 * Analog Input Pins: 16 * Flash Memory: 256 KB of which 8 KB used by bootloader [查看官网](https://store.arduino.cc/usa/mega-2560-r3) #### 6、Rock64 Media Board ![](/data/attachment/album/201905/07/103011t377s7hqsncg4791.jpg) 用与你可能想要的树莓派 3 B+ 相同的价格,你将在 Rock64 Media Board 上获得更快的处理器和双倍的内存。除此之外,如果你想要 1 GB RAM 版的,它提供了一个比树莓派更便宜的替代品,花费更少,只要 $10 。 不像树莓派,它没有无线连接支持,但是 USB 3.0 和 HDMI 2.0 的存在使它与众不同,如果它对你很重要的话。 **关键参数:** * Rockchip RK3328 Quad-Core ARM Cortex A53 64-Bit Processor * Supports up to 4GB 1600MHz LPDDR3 RAM * eMMC module socket * MicroSD Card slot * USB 3.0 * HDMI 2.0 [查看官网](https://www.pine64.org/?product=rock64-media-board-computer) #### 7、Odroid-XU4 ![](/data/attachment/album/201905/07/103013jzkz9f7k6c6fescm.jpg) Odroid-XU4 是一个完美的树莓派的替代品,如果你有能够稍微提高预算的空间($80-$100 甚至更低,取决于存储的容量)。 它确实是一个强大的替代品并且体积更小。支持 eMMC 和 USB 3.0 使它工作起来更快。 **关键参数:** * Samsung Exynos 5422 Octa ARM Cortex™-A15 Quad 2Ghz and Cortex™-A7 Quad 1.3GHz CPUs * 2Gbyte LPDDR3 RAM * GPU: Mali-T628 MP6 * USB 3.0 * HDMI 1.4a * eMMC 5.0 module socket * MicroSD Card Slot [查看官网](https://www.hardkernel.com/shop/odroid-xu4-special-price/) #### 8、PocketBeagle ![](/data/attachment/album/201905/07/103016azbm4dzdprmkqmmm.jpg) 它是一个难以置信的小的单板机 —— 几乎和树莓派Zero 相似。然而它的价格相当于完整大小的树莓派 3。主要的亮点是你可以用它作为一个 USB 便携式信息终端,并且进入 Linux 命令行工作。 **关键参数:** * Processor: Octavo Systems OSD3358 1GHz ARM® Cortex-A8 * RAM: 512 MB DDR3 * 72 expansion pin headers * microUSB * USB 2.0 [查看官网](https://beagleboard.org/p/products/pocketbeagle) #### 9、Le Potato ![](/data/attachment/album/201905/07/103017zxb9bjp3jbxs232s.jpg) 由 [Libre Computer](https://libre.computer/) 出品的 Le Potato,其型号是 AML-S905X-CC。它需要花费你 [$45](https://amzn.to/2DpG3xl)。 如果你花费的比树莓派更多的钱,你就能得到双倍内存和 HDMI 2.0 接口,这可能是一个完美的选择。尽管,你还是不能找到嵌入的无线连接。 **关键参数:** * Amlogic S905X SoC * 2GB DDR3 SDRAM * USB 2.0 * HDMI 2.0 * microUSB * MicroSD Card Slot * eMMC Interface [查看官网](https://libre.computer/products/boards/aml-s905x-cc/) #### 10、Banana Pi M64 ![](/data/attachment/album/201905/07/103018a9h4rwu2rwk87wl9.jpg) 它自带了 8G 的 eMMC —— 这是替代树莓派的主要亮点。因此,它需要花费 $60。 HDMI 接口的存在使它胜任 4K。除此之外,Banana Pi 提供了更多种类的开源单板机作为树莓派的替代。 **关键参数:** * 1.2 Ghz Quad-Core ARM Cortex A53 64-Bit Processor-R18 * 2GB DDR3 SDRAM * 8 GB eMMC * WiFi & Bluetooth * USB 2.0 * HDMI [查看官网](http://www.banana-pi.org/m64.html) #### 11、Orange Pi Zero ![](/data/attachment/album/201905/07/103020sijbaexou2br44zq.jpg) Orange Pi Zero 相对于树莓派来说难以置信的便宜。你可以在 Aliexpress 或者亚马逊上以最多 $10 就能够获得。如果[稍微多花点,你能够获得 512 MB RAM](https://amzn.to/2IlI81g)。 如果这还不够,你可以花费大概 $25 获得更好的配置,比如 Orange Pi 3。 **关键参数:** * H2 Quad-core Cortex-A7 * Mali400MP2 GPU * RAM: Up to 512 MB * TF Card support * WiFi * USB 2.0 [查看官网](http://www.orangepi.org/orangepizero/index.html) #### 12、VIM 2 SBC by Khadas ![](/data/attachment/album/201905/07/103022yzkbcwr3rs333p9e.jpg) 由 Khadas 出品的 VIM 2 是最新的单板机,因此你能够在板上得到蓝牙 5.0 支持。它的价格范围[从 $99 的基础款到上限 $140](https://amzn.to/2UDvrFE)。 基础款包含 2 GB RAM、16 GB eMMC 和蓝牙 4.1。然而,Pro/Max 版包含蓝牙 5.0,更多的内存,更多的 eMMC 存储。 **关键参数:** * Amlogic S912 1.5GHz 64-bit Octa-Core CPU * T820MP3 GPU * Up to 3 GB DDR4 RAM * Up to 64 GB eMMC * Bluetooth 5.0 (Pro/Max) * Bluetooth 4.1 (Basic) * HDMI 2.0a * WiFi ### 总结 我们知道有很多不同种类的单板机电脑。一些比树莓派更好 —— 它的一些小规格的版本有更便宜的价格。同样的,像 Jetson Nano 这样的单板机已经被裁剪用于特定用途。因此,取决于你需要什么 —— 你应该检查一下单板机的配置。 如果你知道比上述提到的更好的东西,请随意在下方评论来让我们知道。 --- via: <https://itsfoss.com/raspberry-pi-alternatives/> 作者:[Ankush Das](https://itsfoss.com/author/ankush/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[warmfrog](https://github.com/warmfrog) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
ping 多台服务器并在类似 top 的界面中显示
Sk
https://www.ostechnix.com/ping-multiple-servers-and-show-the-output-in-top-like-text-ui/
它会一次 ping 多台服务器,并在类似 top 的终端 UI 中显示结果。
/data/attachment/album/201905/07/105923xeed2iibi2vssiss.png.thumb.jpg
/data/attachment/album/201905/07/105923xeed2iibi2vssiss.png
true
false
true
lujun9972
geekpi
wxy
false
[ "ping" ]
技术
{ "viewnum": 7963, "commentnum": 0, "favtimes": 2, "sharetimes": 0, "likes": 0 }
[]
[]
它会一次 ping 多台服务器,并在类似 top 的终端 UI 中显示结果。
2019-05-07T10:59:22
2019-05-07T10:59:22
10,824
/article-10824-1.html
![Ping Multiple Servers And Show The Output In Top-like Text UI](/data/attachment/album/201905/07/105923xeed2iibi2vssiss.png) 不久前,我们写了篇关于 [fping](https://www.ostechnix.com/ping-multiple-hosts-linux/) 的文章,该程序能使我们能够同时 ping 多台主机。与传统的 `ping` 不同,`fping` 不会等待一台主机的超时。它使用循环法,这表示它将 ICMP Echo 请求发送到一台主机,然后转到另一台主机,最后一次显示哪些主机开启或关闭。今天,我们将讨论一个名为 `pingtop` 的类似程序。顾名思义,它会一次 ping 多台服务器,并在类似 `top` 的终端 UI 中显示结果。它是用 Python 写的自由开源程序。 ### 安装 pingtop 可以使用 `pip` 安装 `pingtop`,`pip` 是一个软件包管理器,用于安装用 Python 开发的程序。确保已在 Linux 中安装了 Python 3.7.x 和 pip。 要在 Linux 上安装 `pip`,请参阅以下链接。 * [如何使用 pip 管理 Python 包](/article-10110-1.html) 安装 `pip` 后,运行以下命令安装 `pingtop`: ``` $ pip install pingtop ``` 现在让我们继续使用 `pingtop` ping 多个系统。 ### ping 多台服务器并在类似 top 的终端 UI 中显示 要 ping 多个主机/系统,请运行: ``` $ pingtop ostechnix.com google.com facebook.com twitter.com ``` 现在,你将在一个漂亮的类似 `top` 的终端 UI 中看到结果,如下所示。 ![](/data/attachment/album/201905/07/105925l2z1n8cs6pr438dd.gif) *使用 pingtop ping 多台服务器* 建议阅读: * [一些你可能想知道的替代 “top” 命令的程序](https://www.ostechnix.com/some-alternatives-to-top-command-line-utility-you-might-want-to-know/) 我个人目前没有使用 pingtop 的情况。但我喜欢在这个在文本界面中展示 ping 命令输出的想法。试试看它,也许有帮助。 就是这些了。还有更多好东西。敬请期待!干杯! 资源: * [pingtop GitHub 仓库](https://github.com/laixintao/pingtop) --- via: <https://www.ostechnix.com/ping-multiple-servers-and-show-the-output-in-top-like-text-ui/> 作者:[sk](https://www.ostechnix.com/author/sk/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
每日安全资讯:黑客集团内部是如何运作的?他们也有 CEO 和项目经理
安华金和
IBM 还提供了一张信息图,展示了从犯罪集团的角度,如何发起为期 120 天针对一家财富 500 强公司的真实案例。
/data/attachment/album/201905/07/110643e88plaw67xe8elzr.jpg.thumb.jpg
/data/attachment/album/201905/07/110643e88plaw67xe8elzr.jpg
true
false
false
false
[ "黑客攻击" ]
每日安全资讯
{ "viewnum": 4136, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
IBM 还提供了一张信息图,展示了从犯罪集团的角度,如何发起为期 120 天针对一家财富 500 强公司的真实案例。
2019-05-07T11:07:33
2019-05-07T11:07:33
10,825
/article-10825-1.html
网络犯罪组织会为了争夺客户而相互竞争,会花重金招募最优秀的项目经理,甚至会寻找合适的人才来担任类似于首席执行官的角色,在规范管理人员配置和攻击事务之外负责如何帮助牟取更多的资金。来自IBM和谷歌的安全研究人员描述了网络犯罪组织内部是如何运作的,并且称它们经常会公司化运作。 IBM Security 威胁情报主管 Caleb Barlow 表示:“我们观察到他们也有比较严明的纪律,在办公时间里很活跃,他们也会在周末休息,他们也会定时工作,他们也会休假。它们会以公司化进行运作,会有一个老板全权管理所有攻击行为。它们就像是你雇佣装修公司一样,它们有着很多的分包商,就像是水电工、木工和油漆工一样,它们也和你一样正常上下班。” Barlow 表示了解恶意黑客如何构建和运营其业务非常重要,而公司化可以更好地掌握他们正在攻击的任务。虽然并非所有网络犯罪组织都完全相同,但大体结构应该是这样的:领导者,例如 CEO,会监督整个组织的更广泛目标。而他或者她会雇佣和领导诸多“项目经理”,而每个项目经理负责每次网络攻击的不同部分。 恶意软件的攻击者可能首先购买或创建有针对性的攻击工具,以窃取集团所需的确切信息。另一位攻击者可能会发送欺诈性电子邮件,将恶意软件发送给目标公司。一旦软件成功交付,第三位攻击者可能会努力扩大集团在目标公司内的访问权限,并寻求可以在暗网上进行销售的相关信息。 IBM 还提供了一张信息图,展示了从犯罪集团的角度,如何发起为期 120 天针对一家财富 500 强公司的真实案例。负责 IBM X-Force 业务安全事件响应的 Christopher Scott 表示称在这种情况下,对财富 500 强企业的攻击意味着窃取和破坏数据,不同的颜色大致代表不同的工作职能。 ![](/data/attachment/album/201905/07/110643e88plaw67xe8elzr.jpg) 在图形的左侧,专门破坏公司网络的攻击者以自己的方式进入业务以获得立足点。其他“项目经理”通过窃取他们的凭证来破坏各种员工帐户,并使用这些帐户执行该计划中的不同任务,从访问敏感区域或收集信息。时间线上的差距代表了黑客停止进行某些活动的时期,因此他们不会将公司用来检测犯罪活动的传感器干扰。 在 120 天周期尾声的时候,以鲜红色为代表的黑客专家最终画上句号,使用不同的恶意代码来破坏公司的各种数据。隶属于 Alphabet 集团“Other Bet”下方,专门从事网络安全的 Chronicle 公司研究主任 Juan Andres Guerrero-Saade 解释称:“如果我是一名优秀的开发人员,那么我会选择创建勒索软件并将其出售,或者将其像那些提供 software-as-a-service 的公司一样作为服务出售。然后我会不断维护这款恶意软件,如果你找到受害者并让他们受到感染支付赎金,那么我将收取 10% 或 20% 的分成。” 来源:cnBeta.COM ### 更多资讯 ##### Mozilla 修复附加组件问题 同时警告用户不要尝试“可疑的解决方法” Mozilla 今天推出了 Firefox 66.0.4,解决了因为证书问题导致的附加组件无法在 Firefox 浏览器中工作的问题。周五,过期的安全证书令全球的 Firefox 用户感到困惑,因为扩展被禁用并变得无法使用。Mozilla 现在发布了一个浏览器更新,并且“正在积极努力解决剩下的问题”。 来源: cnBeta.COM 详情: <http://t.cn/EotsFEc> ##### 爱彼迎民宿路由器暗藏摄像头:官方回应已移除房源 5 月 5 日下午,有媒体报道称,在山东青岛一家爱彼迎(Airbnb)的民宿中,住客在无线路由器内发现了隐藏的摄像头和存储卡,拍摄方向正对卧室。5 日晚间,爱彼迎公关人员对此正式回应称,爱彼迎十分重视隐私保护,对任何侵犯隐私的行为都秉持零容忍态度,目前平台方已经永久性移除涉事房源。 来源: 快科技 详情: <http://t.cn/Eocv7vE> ##### 来电显示暗藏黑色利益链 你的号码被“标注”了吗? 2015 年 8 月的一天,刘子倩用打车软件叫了一辆车,刚刚上车,他就被司机识破了身份。原来,司机手机上的一款来电号码识别软件,把刘子倩的身份信息标注为“记者”。当刘子倩拨通司机电话时,他的身份信息就已经泄露了。 来源: 法制日报 详情: <http://t.cn/Eocvwx0> ##### 北京将实现水电气热大数据共享,严防数据丢失、泄露 《北京市公共数据管理办法》日前面向公众开征意见。记者获悉,北京将建设市、区两级大数据管理平台,目前已有11.5亿条数据在市级大数据管理平台汇聚。未来,对于无条件共享的数据,数据需求单位可通过市区两级大数据平台直接获取;对于有条件共享的数据,数据需求单位应根据提供单位的授权获取共享数据。 来源: 北京日报 详情: <http://t.cn/EocvLOR> (信息来源于网络,安华金和搜集整理)
Linux 下的进程间通信:共享存储
Marty Kalin
https://opensource.com/article/19/4/interprocess-communication-linux-storage
学习在 Linux 中进程是如何与其他进程进行同步的。
/data/attachment/album/201905/07/122555by525iisnxnckyry.jpg.thumb.jpg
/data/attachment/album/201905/07/122555by525iisnxnckyry.jpg
true
false
true
lujun9972
FSSlc
wxy
false
[ "IPC" ]
软件开发
{ "viewnum": 10864, "commentnum": 3, "favtimes": 3, "sharetimes": 0, "likes": 0 }
[ { "postip": "206.16.17.150", "message": "讲解的不错", "username": "来自美国的 Internet Explorer 11.0|Windows 7 用户", "date": "2019-05-07T15:31:27" }, { "postip": "61.128.217.235", "message": "很好,但要是 python 代码理解会更容易些", "username": "来自重庆的 Chrome 69.0|Windows 10 用户", "date": "2019-05-08T08:44:15" }, { "postip": "223.104.186.141", "message": "python没有c快呀,底层谁用解释语言呀", "username": "来自223.104.186.141的 MIUI Browser 10.8|Android 用户", "date": "2019-07-28T23:05:42" } ]
[ { "raid": 10845, "displayorder": 0 } ]
学习在 Linux 中进程是如何与其他进程进行同步的。
2019-05-07T12:26:00
2019-05-07T12:26:00
10,826
/article-10826-1.html
> > 学习在 Linux 中进程是如何与其他进程进行同步的。 > > > ![](/data/attachment/album/201905/07/122555by525iisnxnckyry.jpg) 本篇是 Linux 下[进程间通信](https://en.wikipedia.org/wiki/Inter-process_communication)(IPC)系列的第一篇文章。这个系列将使用 C 语言代码示例来阐明以下 IPC 机制: * 共享文件 * 共享内存(使用信号量) * 管道(命名的或非命名的管道) * 消息队列 * 套接字 * 信号 在聚焦上面提到的共享文件和共享内存这两个机制之前,这篇文章将带你回顾一些核心的概念。 ### 核心概念 *进程*是运行着的程序,每个进程都有着它自己的地址空间,这些空间由进程被允许访问的内存地址组成。进程有一个或多个执行*线程*,而线程是一系列执行指令的集合:*单线程*进程就只有一个线程,而*多线程*的进程则有多个线程。一个进程中的线程共享各种资源,特别是地址空间。另外,一个进程中的线程可以直接通过共享内存来进行通信,尽管某些现代语言(例如 Go)鼓励一种更有序的方式,例如使用线程安全的通道。当然对于不同的进程,默认情况下,它们**不**能共享内存。 有多种方法启动之后要进行通信的进程,下面所举的例子中主要使用了下面的两种方法: * 一个终端被用来启动一个进程,另外一个不同的终端被用来启动另一个。 * 在一个进程(父进程)中调用系统函数 `fork`,以此生发另一个进程(子进程)。 第一个例子采用了上面使用终端的方法。这些[代码示例](http://condor.depaul.edu/mkalin)的 ZIP 压缩包可以从我的网站下载到。 ### 共享文件 程序员对文件访问应该都已经很熟识了,包括许多坑(不存在的文件、文件权限损坏等等),这些问题困扰着程序对文件的使用。尽管如此,共享文件可能是最为基础的 IPC 机制了。考虑一下下面这样一个相对简单的例子,其中一个进程(生产者 `producer`)创建和写入一个文件,然后另一个进程(消费者 `consumer`)从这个相同的文件中进行读取: ``` writes +-----------+ reads producer-------->| disk file |<-------consumer +-----------+ ``` 在使用这个 IPC 机制时最明显的挑战是*竞争条件*可能会发生:生产者和消费者可能恰好在同一时间访问该文件,从而使得输出结果不确定。为了避免竞争条件的发生,该文件在处于*读*或*写*状态时必须以某种方式处于被锁状态,从而阻止在*写*操作执行时和其他操作的冲突。在标准系统库中与锁相关的 API 可以被总结如下: * 生产者应该在写入文件时获得一个文件的排斥锁。一个*排斥*锁最多被一个进程所拥有。这样就可以排除掉竞争条件的发生,因为在锁被释放之前没有其他的进程可以访问这个文件。 * 消费者应该在从文件中读取内容时得到至少一个共享锁。多个*读取者*可以同时保有一个*共享*锁,但是没有*写入者*可以获取到文件内容,甚至在当只有一个*读取者*保有一个共享锁时。 共享锁可以提升效率。假如一个进程只是读入一个文件的内容,而不去改变它的内容,就没有什么原因阻止其他进程来做同样的事。但如果需要写入内容,则很显然需要文件有排斥锁。 标准的 I/O 库中包含一个名为 `fcntl` 的实用函数,它可以被用来检查或者操作一个文件上的排斥锁和共享锁。该函数通过一个*文件描述符*(一个在进程中的非负整数值)来标记一个文件(在不同的进程中不同的文件描述符可能标记同一个物理文件)。对于文件的锁定, Linux 提供了名为 `flock` 的库函数,它是 `fcntl` 的一个精简包装。第一个例子中使用 `fcntl` 函数来暴露这些 API 细节。 #### 示例 1. 生产者程序 ``` #include <stdio.h> #include <stdlib.h> #include <fcntl.h> #include <unistd.h> #include <string.h> #define FileName "data.dat" #define DataString "Now is the winter of our discontent\nMade glorious summer by this sun of York\n" void report_and_exit(const char* msg) { perror(msg); exit(-1); /* EXIT_FAILURE */ } int main() { struct flock lock; lock.l_type = F_WRLCK; /* read/write (exclusive versus shared) lock */ lock.l_whence = SEEK_SET; /* base for seek offsets */ lock.l_start = 0; /* 1st byte in file */ lock.l_len = 0; /* 0 here means 'until EOF' */ lock.l_pid = getpid(); /* process id */ int fd; /* file descriptor to identify a file within a process */ if ((fd = open(FileName, O_RDWR | O_CREAT, 0666)) < 0) /* -1 signals an error */ report_and_exit("open failed..."); if (fcntl(fd, F_SETLK, &lock) < 0) /** F_SETLK doesn't block, F_SETLKW does **/ report_and_exit("fcntl failed to get lock..."); else { write(fd, DataString, strlen(DataString)); /* populate data file */ fprintf(stderr, "Process %d has written to data file...\n", lock.l_pid); } /* Now release the lock explicitly. */ lock.l_type = F_UNLCK; if (fcntl(fd, F_SETLK, &lock) < 0) report_and_exit("explicit unlocking failed..."); close(fd); /* close the file: would unlock if needed */ return 0; /* terminating the process would unlock as well */ } ``` 上面生产者程序的主要步骤可以总结如下: * 这个程序首先声明了一个类型为 `struct flock` 的变量,它代表一个锁,并对它的 5 个域做了初始化。第一个初始化 ``` lock.l_type = F_WRLCK; /* exclusive lock */ ``` 使得这个锁为排斥锁(read-write)而不是一个共享锁(read-only)。假如生产者获得了这个锁,则其他的进程将不能够对文件做读或者写操作,直到生产者释放了这个锁,或者显式地调用 `fcntl`,又或者隐式地关闭这个文件。(当进程终止时,所有被它打开的文件都会被自动关闭,从而释放了锁) * 上面的程序接着初始化其他的域。主要的效果是*整个*文件都将被锁上。但是,有关锁的 API 允许特别指定的字节被上锁。例如,假如文件包含多个文本记录,则单个记录(或者甚至一个记录的一部分)可以被锁,而其余部分不被锁。 * 第一次调用 `fcntl` ``` if (fcntl(fd, F_SETLK, &lock) < 0) ``` 尝试排斥性地将文件锁住,并检查调用是否成功。一般来说, `fcntl` 函数返回 `-1` (因此小于 0)意味着失败。第二个参数 `F_SETLK` 意味着 `fcntl` 的调用*不是*堵塞的;函数立即做返回,要么获得锁,要么显示失败了。假如替换地使用 `F_SETLKW`(末尾的 `W` 代指*等待*),那么对 `fcntl` 的调用将是阻塞的,直到有可能获得锁的时候。在调用 `fcntl` 函数时,它的第一个参数 `fd` 指的是文件描述符,第二个参数指定了将要采取的动作(在这个例子中,`F_SETLK` 指代设置锁),第三个参数为锁结构的地址(在本例中,指的是 `&lock`)。 * 假如生产者获得了锁,这个程序将向文件写入两个文本记录。 * 在向文件写入内容后,生产者改变锁结构中的 `l_type` 域为 `unlock` 值: ``` lock.l_type = F_UNLCK; ``` 并调用 `fcntl` 来执行解锁操作。最后程序关闭了文件并退出。 #### 示例 2. 消费者程序 ``` #include <stdio.h> #include <stdlib.h> #include <fcntl.h> #include <unistd.h> #define FileName "data.dat" void report_and_exit(const char* msg) { perror(msg); exit(-1); /* EXIT_FAILURE */ } int main() { struct flock lock; lock.l_type = F_WRLCK; /* read/write (exclusive) lock */ lock.l_whence = SEEK_SET; /* base for seek offsets */ lock.l_start = 0; /* 1st byte in file */ lock.l_len = 0; /* 0 here means 'until EOF' */ lock.l_pid = getpid(); /* process id */ int fd; /* file descriptor to identify a file within a process */ if ((fd = open(FileName, O_RDONLY)) < 0) /* -1 signals an error */ report_and_exit("open to read failed..."); /* If the file is write-locked, we can't continue. */ fcntl(fd, F_GETLK, &lock); /* sets lock.l_type to F_UNLCK if no write lock */ if (lock.l_type != F_UNLCK) report_and_exit("file is still write locked..."); lock.l_type = F_RDLCK; /* prevents any writing during the reading */ if (fcntl(fd, F_SETLK, &lock) < 0) report_and_exit("can't get a read-only lock..."); /* Read the bytes (they happen to be ASCII codes) one at a time. */ int c; /* buffer for read bytes */ while (read(fd, &c, 1) > 0) /* 0 signals EOF */ write(STDOUT_FILENO, &c, 1); /* write one byte to the standard output */ /* Release the lock explicitly. */ lock.l_type = F_UNLCK; if (fcntl(fd, F_SETLK, &lock) < 0) report_and_exit("explicit unlocking failed..."); close(fd); return 0; } ``` 相比于锁的 API,消费者程序会相对复杂一点儿。特别的,消费者程序首先检查文件是否被排斥性的被锁,然后才尝试去获得一个共享锁。相关的代码为: ``` lock.l_type = F_WRLCK; ... fcntl(fd, F_GETLK, &lock); /* sets lock.l_type to F_UNLCK if no write lock */ if (lock.l_type != F_UNLCK) report_and_exit("file is still write locked..."); ``` 在 `fcntl` 调用中的 `F_GETLK` 操作指定检查一个锁,在本例中,上面代码的声明中给了一个 `F_WRLCK` 的排斥锁。假如特指的锁不存在,那么 `fcntl` 调用将会自动地改变锁类型域为 `F_UNLCK` 以此来显示当前的状态。假如文件是排斥性地被锁,那么消费者将会终止。(一个更健壮的程序版本或许应该让消费者*睡*会儿,然后再尝试几次。) 假如当前文件没有被锁,那么消费者将尝试获取一个共享(read-only)锁(`F_RDLCK`)。为了缩短程序,`fcntl` 中的 `F_GETLK` 调用可以丢弃,因为假如其他进程已经保有一个读写锁,`F_RDLCK` 的调用就可能会失败。重新调用一个只读锁能够阻止其他进程向文件进行写的操作,但可以允许其他进程对文件进行读取。简而言之,共享锁可以被多个进程所保有。在获取了一个共享锁后,消费者程序将立即从文件中读取字节数据,然后在标准输出中打印这些字节的内容,接着释放锁,关闭文件并终止。 下面的 `%` 为命令行提示符,下面展示的是从相同终端开启这两个程序的输出: ``` % ./producer Process 29255 has written to data file... % ./consumer Now is the winter of our discontent Made glorious summer by this sun of York ``` 在本次的代码示例中,通过 IPC 传输的数据是文本:它们来自莎士比亚的戏剧《理查三世》中的两行台词。然而,共享文件的内容还可以是纷繁复杂的,任意的字节数据(例如一个电影)都可以,这使得文件共享变成了一个非常灵活的 IPC 机制。但它的缺点是文件获取速度较慢,因为文件的获取涉及到读或者写。同往常一样,编程总是伴随着折中。下面的例子将通过共享内存来做 IPC,而不是通过共享文件,在性能上相应的有极大的提升。 ### 共享内存 对于共享内存,Linux 系统提供了两类不同的 API:传统的 System V API 和更新一点的 POSIX API。在单个应用中,这些 API 不能混用。但是,POSIX 方式的一个坏处是它的特性仍在发展中,并且依赖于安装的内核版本,这非常影响代码的可移植性。例如,默认情况下,POSIX API 用*内存映射文件*来实现共享内存:对于一个共享的内存段,系统为相应的内容维护一个*备份文件*。在 POSIX 规范下共享内存可以被配置为不需要备份文件,但这可能会影响可移植性。我的例子中使用的是带有备份文件的 POSIX API,这既结合了内存获取的速度优势,又获得了文件存储的持久性。 下面的共享内存例子中包含两个程序,分别名为 `memwriter` 和 `memreader`,并使用*信号量*来调整它们对共享内存的获取。在任何时候当共享内存进入一个*写入者*场景时,无论是多进程还是多线程,都有遇到基于内存的竞争条件的风险,所以,需要引入信号量来协调(同步)对共享内存的获取。 `memwriter` 程序应当在它自己所处的终端首先启动,然后 `memreader` 程序才可以在它自己所处的终端启动(在接着的十几秒内)。`memreader` 的输出如下: ``` This is the way the world ends... ``` 在每个源程序的最上方注释部分都解释了在编译它们时需要添加的链接参数。 首先让我们复习一下信号量是如何作为一个同步机制工作的。一般的信号量也被叫做一个*计数信号量*,因为带有一个可以增加的值(通常初始化为 0)。考虑一家租用自行车的商店,在它的库存中有 100 辆自行车,还有一个供职员用于租赁的程序。每当一辆自行车被租出去,信号量就增加 1;当一辆自行车被还回来,信号量就减 1。在信号量的值为 100 之前都还可以进行租赁业务,但如果等于 100 时,就必须停止业务,直到至少有一辆自行车被还回来,从而信号量减为 99。 *二元信号量*是一个特例,它只有两个值:0 和 1。在这种情况下,信号量的表现为*互斥量*(一个互斥的构造)。下面的共享内存示例将把信号量用作互斥量。当信号量的值为 0 时,只有 `memwriter` 可以获取共享内存,在写操作完成后,这个进程将增加信号量的值,从而允许 `memreader` 来读取共享内存。 #### 示例 3. memwriter 进程的源程序 ``` /** Compilation: gcc -o memwriter memwriter.c -lrt -lpthread **/ #include <stdio.h> #include <stdlib.h> #include <sys/mman.h> #include <sys/stat.h> #include <fcntl.h> #include <unistd.h> #include <semaphore.h> #include <string.h> #include "shmem.h" void report_and_exit(const char* msg) { perror(msg); exit(-1); } int main() { int fd = shm_open(BackingFile, /* name from smem.h */ O_RDWR | O_CREAT, /* read/write, create if needed */ AccessPerms); /* access permissions (0644) */ if (fd < 0) report_and_exit("Can't open shared mem segment..."); ftruncate(fd, ByteSize); /* get the bytes */ caddr_t memptr = mmap(NULL, /* let system pick where to put segment */ ByteSize, /* how many bytes */ PROT_READ | PROT_WRITE, /* access protections */ MAP_SHARED, /* mapping visible to other processes */ fd, /* file descriptor */ 0); /* offset: start at 1st byte */ if ((caddr_t) -1 == memptr) report_and_exit("Can't get segment..."); fprintf(stderr, "shared mem address: %p [0..%d]\n", memptr, ByteSize - 1); fprintf(stderr, "backing file: /dev/shm%s\n", BackingFile ); /* semaphore code to lock the shared mem */ sem_t* semptr = sem_open(SemaphoreName, /* name */ O_CREAT, /* create the semaphore */ AccessPerms, /* protection perms */ 0); /* initial value */ if (semptr == (void*) -1) report_and_exit("sem_open"); strcpy(memptr, MemContents); /* copy some ASCII bytes to the segment */ /* increment the semaphore so that memreader can read */ if (sem_post(semptr) < 0) report_and_exit("sem_post"); sleep(12); /* give reader a chance */ /* clean up */ munmap(memptr, ByteSize); /* unmap the storage */ close(fd); sem_close(semptr); shm_unlink(BackingFile); /* unlink from the backing file */ return 0; } ``` 下面是 `memwriter` 和 `memreader` 程序如何通过共享内存来通信的一个总结: * 上面展示的 `memwriter` 程序调用 `shm_open` 函数来得到作为系统协调共享内存的备份文件的文件描述符。此时,并没有内存被分配。接下来调用的是令人误解的名为 `ftruncate` 的函数 ``` ftruncate(fd, ByteSize); /* get the bytes */ ``` 它将分配 `ByteSize` 字节的内存,在该情况下,一般为大小适中的 512 字节。`memwriter` 和 `memreader` 程序都只从共享内存中获取数据,而不是从备份文件。系统将负责共享内存和备份文件之间数据的同步。 * 接着 `memwriter` 调用 `mmap` 函数: ``` caddr_t memptr = mmap(NULL, /* let system pick where to put segment */ ByteSize, /* how many bytes */ PROT_READ | PROT_WRITE, /* access protections */ MAP_SHARED, /* mapping visible to other processes */ fd, /* file descriptor */ 0); /* offset: start at 1st byte */ ``` 来获得共享内存的指针。(`memreader` 也做一次类似的调用。) 指针类型 `caddr_t` 以 `c` 开头,它代表 `calloc`,而这是动态初始化分配的内存为 0 的一个系统函数。`memwriter` 通过库函数 `strcpy`(字符串复制)来获取后续*写*操作的 `memptr`。 * 到现在为止,`memwriter` 已经准备好进行写操作了,但首先它要创建一个信号量来确保共享内存的排斥性。假如 `memwriter` 正在执行写操作而同时 `memreader` 在执行读操作,则有可能出现竞争条件。假如调用 `sem_open` 成功了: ``` sem_t* semptr = sem_open(SemaphoreName, /* name */ O_CREAT, /* create the semaphore */ AccessPerms, /* protection perms */ 0); /* initial value */ ``` 那么,接着写操作便可以执行。上面的 `SemaphoreName`(任意一个唯一的非空名称)用来在 `memwriter` 和 `memreader` 识别信号量。初始值 0 将会传递给信号量的创建者,在这个例子中指的是 `memwriter` 赋予它执行*写*操作的权利。 * 在写操作完成后,`memwriter* 通过调用`sem\_post` 函数将信号量的值增加到 1: ``` if (sem_post(semptr) < 0) .. ``` 增加信号了将释放互斥锁,使得 `memreader` 可以执行它的*读*操作。为了更好地测量,`memwriter` 也将从它自己的地址空间中取消映射, ``` munmap(memptr, ByteSize); /* unmap the storage * ``` 这将使得 `memwriter` 不能进一步地访问共享内存。 #### 示例 4. memreader 进程的源代码 ``` /** Compilation: gcc -o memreader memreader.c -lrt -lpthread **/ #include <stdio.h> #include <stdlib.h> #include <sys/mman.h> #include <sys/stat.h> #include <fcntl.h> #include <unistd.h> #include <semaphore.h> #include <string.h> #include "shmem.h" void report_and_exit(const char* msg) { perror(msg); exit(-1); } int main() { int fd = shm_open(BackingFile, O_RDWR, AccessPerms); /* empty to begin */ if (fd < 0) report_and_exit("Can't get file descriptor..."); /* get a pointer to memory */ caddr_t memptr = mmap(NULL, /* let system pick where to put segment */ ByteSize, /* how many bytes */ PROT_READ | PROT_WRITE, /* access protections */ MAP_SHARED, /* mapping visible to other processes */ fd, /* file descriptor */ 0); /* offset: start at 1st byte */ if ((caddr_t) -1 == memptr) report_and_exit("Can't access segment..."); /* create a semaphore for mutual exclusion */ sem_t* semptr = sem_open(SemaphoreName, /* name */ O_CREAT, /* create the semaphore */ AccessPerms, /* protection perms */ 0); /* initial value */ if (semptr == (void*) -1) report_and_exit("sem_open"); /* use semaphore as a mutex (lock) by waiting for writer to increment it */ if (!sem_wait(semptr)) { /* wait until semaphore != 0 */ int i; for (i = 0; i < strlen(MemContents); i++) write(STDOUT_FILENO, memptr + i, 1); /* one byte at a time */ sem_post(semptr); } /* cleanup */ munmap(memptr, ByteSize); close(fd); sem_close(semptr); unlink(BackingFile); return 0; } ``` `memwriter` 和 `memreader` 程序中,共享内存的主要着重点都在 `shm_open` 和 `mmap` 函数上:在成功时,第一个调用返回一个备份文件的文件描述符,而第二个调用则使用这个文件描述符从共享内存段中获取一个指针。它们对 `shm_open` 的调用都很相似,除了 `memwriter` 程序创建共享内存,而 `memreader 只获取这个已经创建的内存: ``` int fd = shm_open(BackingFile, O_RDWR | O_CREAT, AccessPerms); /* memwriter */ int fd = shm_open(BackingFile, O_RDWR, AccessPerms); /* memreader */ ``` 有了文件描述符,接着对 `mmap` 的调用就是类似的了: ``` caddr_t memptr = mmap(NULL, size, PROT_READ | PROT_WRITE, MAP_SHARED, fd, 0); ``` `mmap` 的第一个参数为 `NULL`,这意味着让系统自己决定在虚拟内存地址的哪个地方分配内存,当然也可以指定一个地址(但很有技巧性)。`MAP_SHARED` 标志着被分配的内存在进程中是共享的,最后一个参数(在这个例子中为 0 ) 意味着共享内存的偏移量应该为第一个字节。`size` 参数特别指定了将要分配的字节数目(在这个例子中是 512);另外的保护参数(`AccessPerms`)暗示着共享内存是可读可写的。 当 `memwriter` 程序执行成功后,系统将创建并维护备份文件,在我的系统中,该文件为 `/dev/shm/shMemEx`,其中的 `shMemEx` 是我为共享存储命名的(在头文件 `shmem.h` 中给定)。在当前版本的 `memwriter` 和 `memreader` 程序中,下面的语句 ``` shm_unlink(BackingFile); /* removes backing file */ ``` 将会移除备份文件。假如没有 `unlink` 这个语句,则备份文件在程序终止后仍然持久地保存着。 `memreader` 和 `memwriter` 一样,在调用 `sem_open` 函数时,通过信号量的名字来获取信号量。但 `memreader` 随后将进入等待状态,直到 `memwriter` 将初始值为 0 的信号量的值增加。 ``` if (!sem_wait(semptr)) { /* wait until semaphore != 0 */ ``` 一旦等待结束,`memreader` 将从共享内存中读取 ASCII 数据,然后做些清理工作并终止。 共享内存 API 包括显式地同步共享内存段和备份文件。在这次的示例中,这些操作都被省略了,以免文章显得杂乱,好让我们专注于内存共享和信号量的代码。 即便在信号量代码被移除的情况下,`memwriter` 和 `memreader` 程序很大几率也能够正常执行而不会引入竞争条件:`memwriter` 创建了共享内存段,然后立即向它写入;`memreader` 不能访问共享内存,直到共享内存段被创建好。然而,当一个*写操作*处于混合状态时,最佳实践需要共享内存被同步。信号量 API 足够重要,值得在代码示例中着重强调。 ### 总结 上面共享文件和共享内存的例子展示了进程是怎样通过*共享存储*来进行通信的,前者通过文件而后者通过内存块。这两种方法的 API 相对来说都很直接。这两种方法有什么共同的缺点吗?现代的应用经常需要处理流数据,而且是非常大规模的数据流。共享文件或者共享内存的方法都不能很好地处理大规模的流数据。按照类型使用管道会更加合适一些。所以这个系列的第二部分将会介绍管道和消息队列,同样的,我们将使用 C 语言写的代码示例来辅助讲解。 --- via: <https://opensource.com/article/19/4/interprocess-communication-linux-storage> 作者:[Marty Kalin](https://opensource.com/users/mkalindepauledu) 选题:[lujun9972](https://github.com/lujun9972) 译者:[FSSlc](https://github.com/FSSlc) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
红帽发布企业版 Linux(RHEL) 8.0
Wxy
红帽 今天宣布,其企业 Linux (RHEL)发布了最新版本 8.0。“对于在任何环境中运行的任何工作负载,红帽企业 Linux 8 提供一种企业级 Linux 的体验,以满足不断发展的企业的独特技术需求。”
/data/attachment/album/201905/08/100248oxsnxzlann9ml9kl.jpg.thumb.jpg
/data/attachment/album/201905/08/100248oxsnxzlann9ml9kl.jpg
true
false
false
false
[ "红帽", "RHEL" ]
新闻
{ "viewnum": 8386, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
红帽 今天宣布,其企业 Linux (RHEL)发布了最新版本 8.0。“对于在任何环境中运行的任何工作负载,红帽企业 Linux 8 提供一种企业级 Linux 的体验,以满足不断发展的企业的独特技术需求。”
2019-05-08T10:08:02
2019-05-08T10:08:02
10,827
/article-10827-1.html
![](/data/attachment/album/201905/08/100248oxsnxzlann9ml9kl.jpg) 红帽 [今日宣布](https://www.redhat.com/en/about/press-releases/red-hat-enterprise-linux-8-every-enterprise-every-cloud-every-workload),其[企业 Linux (RHEL)](https://www.redhat.com/en/enterprise-linux-8)发布了最新版本 8.0。“对于在任何环境中运行的任何工作负载,红帽企业 Linux 8 提供一种企业级 Linux 的体验,以满足不断发展的企业的独特技术需求。” 红帽企业 Linux 总裁兼总经理 Stefanie Chiras 说:“跨越整个混合云,这个世界领先的企业 Linux 平台为 IT 组织提供了一剂催化剂,它不仅能够应对当今的挑战,还能做更多的事情。它为他们提供了创建自己未来的基础和工具,无论他们想要什么。” 红帽企业 Linux 8 是针对混合云时代重新设计的操作系统,旨在支持从企业数据中心到多个公共云的工作负载和操作。随着混合云和多云部署的重要性不断增长,操作系统也必须不断发展。根据 [IDC 2018 年 9 月的一份报告](https://www.idc.com/getdoc.jsp?containerId=US44305818),70% 的客户已经部署了多云环境,当今典型 IT 产品组合中 64% 的应用程序都基于云环境,无论是公有云还是私有云。 红帽企业 Linux 一直被认为是应用程序最稳定、最安全的基础设施。但是,在过去很难获得开发人员想要的最新语言和框架,而不会影响稳定性。红帽企业 Linux 8 引入了<ruby> 应用程序流 <rp> ( </rp> <rt> Application Streams </rt> <rp> ) </rp></ruby> ——在此流中会经常更新快速变化的语言、框架和开发人员工具,而不会影响红帽企业 Linux 作为企业基准的核心资源。这样可以在单一的企业级操作系统中实现更快的开发人员创新和生产稳定性。 红帽企业 Linux 8 抽象出了红帽企业 Linux Web 控制台背后的粒度系统管理员任务的许多深层复杂性。该控制台提供直观、一致的图形界面,用于管理和监控红帽企业 Linux 系统,从虚拟机的运行状况到整体系统性能。为了进一步提高易用性,红帽企业 Linux 支持就地升级,为用户将红帽企业 Linux 7 实例转换为红帽企业 Linux 8 系统提供了更加简化、高效和及时的途径。 红帽企业 Linux 8 还包括了红帽企业 Linux <ruby> 系统角色 <rp> ( </rp> <rt> System Role </rt> <rp> ) </rp></ruby>,它可以自动完成许多关于在生产中管理和配置 Linux 的更复杂任务。系统角色由 Red Hat Ansible Automation 提供支持,它是预先配置的 Ansible 模块,支持现成的自动化工作流程,用于处理常见的复杂系统管理员任务。这种自动化使新系统管理员更容易采用 Linux,并有助于消除导致常见配置问题的人为错误。 为了增强安全性,红帽企业 Linux 8 支持 OpenSSL 1.1.1 和 TLS 1.3 加密标准。这提供了对加密保护中最强大的最新标准的访问,这些标准可以通过单个命令在系统范围内实现,从而限制了对特定于应用程序的策略和调优的需求。 从红帽 OpenShift 4 和即将推出的红帽 OpenStack Platform 15,红帽企业 Linux 8 构成了红帽整个混合云产品组合的基础。同样基于红帽企业 Linux 8 构建的是即将推出的红帽企业 Linux CoreOS 系统旨在托管 Red Hat OpenShift 部署。 红帽企业 Linux 8 的推出也与<ruby> <a href="https://www.redhat.com/en/blog/introducing-red-hat-universal-base-image"> 红帽通用基础映像 </a> <rp> ( </rp> <rt> Red Hat Universal Base Image </rt> <rp> ) </rp></ruby>的普遍可用性相吻合,红帽通用基础映像是一个源自红帽企业 Linux 的用户空间映像,用于构建经过红帽认证的 Linux 容器。使用它构建的应用程序可以在任何地方运行。
大家都在点赞 Windows Terminal,我决定给你泼一盆冷水
小白
在我看到一时间出现的很多文章,都视 Windows Terminal 为 Windows 下命令行体验的救世主之后,我觉得,是时候泼一盆冷水降降温了。
/data/attachment/album/201905/08/112743fbblple8b81o0xp0.jpg.thumb.jpg
/data/attachment/album/201905/08/112743fbblple8b81o0xp0.jpg
true
false
false
false
[ "Windows", "终端" ]
观点
{ "viewnum": 34683, "commentnum": 31, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[ { "postip": "171.210.146.99", "message": "好酸啊", "username": "来自四川成都的 Chrome Mobile 74.0|Android 8.1 用户", "date": "2019-05-08T13:09:52" }, { "postip": "124.64.19.163", "message": "这种垃圾文章还好意思说自己是windows开发? 路边摊学的吧? ps用的还不是最新版本。这么牛你咋不上天呢?", "username": "来自北京的 Chrome 74.0|Windows 10 用户", "date": "2019-05-08T13:43:07" }, { "postip": "120.230.99.196", "message": "哈哈,虽然我是做运维的,但其实我是微软阵营的,哈哈,怎么说呢,有吐槽才有进步嘛,哈哈,很显示这个作者是linux阵营的,所以,难免会有泼冷水的作法,哈哈", "username": "来自120.230.99.196的 Liebao|Windows 7 用户", "date": "2019-05-08T13:43:57" }, { "postip": "27.223.84.74", "message": "完全没看出来哪里酸了。", "username": "绿色圣光 [Firefox 60.0|GNU/Linux]", "date": "2019-05-08T13:57:20" }, { "postip": "202.114.122.193", "message": "这是什么屁话,水平跟用的软件版本有关系吗???", "username": "来自湖北武汉武汉大学测绘学院的 Firefox 66.0|Windows 10 用户", "date": "2019-05-08T14:13:07" }, { "postip": "202.114.122.193", "message": "你们这定位显示的太6了", "username": "来自湖北武汉武汉大学测绘学院的 Firefox 66.0|Windows 10 用户", "date": "2019-05-08T14:19:34" }, { "postip": "119.139.198.234", "message": "部分赞同文章的观点。微信那边吵的太激烈了,我就不掺和了。在这边留言希望作者能看到。<br />\r\n1. 官方的terminal确实没有什么太值得说道的,很多叫好的人也许只是没分清terminal和shell的区别,不过有理由相信官方出的兼容性会更好,并且有持续更新;<br />\r\n2. powershell和cmd共同存在的问题,支持的字体限制很大(参考 知乎/question/36344262/answer/67191917),unicode字符支持不足。据说新的terminal里这些问题都已经解决,具体要等待实际使用后才能知道;<br />\r\n3. cmd语法确实反人类,但powershell有可取之处,比如通过管道传递的是对象,可以轻松筛", "username": "来自广东深圳的 Chrome 73.0|Windows 10 用户", "date": "2019-05-08T14:46:58" }, { "postip": "112.65.61.151", "message": "如果直接支持bash不知道有没有知识产权的问题。", "username": "来自上海的 Maxthon 5.1|Mac 10.14 用户", "date": "2019-05-09T08:56:51" }, { "postip": "218.79.75.210", "message": "我装完试了一下,只是感觉更漂亮了点,然并卵,吹得很好,看最后发布能是个什么样,因为现在没有wsl2配合使用.windows terminal本身就应该当成linuxshell来使用才值的夸,目前看不到", "username": "来自上海的 Chrome 73.0|Mac 10.14 用户", "date": "2019-05-11T02:01:24" }, { "postip": "116.232.109.180", "message": "win7不能用差评。", "username": "来自上海的 Firefox 66.0|Windows 7 用户", "date": "2019-05-14T13:51:52" }, { "postip": "171.12.10.57", "message": "powershell5.0开始支持对象, 现在的6.2跟之前的3, 4比起来有很多新特性.", "username": "来自河南郑州的 Chrome 74.0|Windows 7 用户", "date": "2019-05-18T17:10:54" }, { "postip": "202.114.122.193", "message": "wsl上次更新是2017年,可以看出来wsl2也只是重新开坑。<br />\r\n<br />\r\n拜托微软把上个坑填上啊", "username": "来自湖北武汉武汉大学测绘学院的 Microsoft Edge 17.17134|Windows 10 用户", "date": "2019-05-21T22:38:55" }, { "postip": "202.114.122.193", "message": "wsl上次更新是2017年,可以看出来wsl2也只是重新开坑。<br />\r\n<br />\r\n拜托微软把上个坑填上啊", "username": "来自湖北武汉武汉大学测绘学院的 Microsoft Edge 17.17134|Windows 10 用户", "date": "2019-05-21T22:38:57" }, { "postip": "183.128.206.145", "message": "槽点太多了。。。<br />\r\n<br />\r\n&gt; 它也只是一个终端而已,而不是一个更加好用的 Shell<br />\r\n<br />\r\n本来就是终端啊,他也没说自己是 Shell 啊,要不然怎么叫 Windows Terminal <br />\r\n<br />\r\n&gt; 这种第三方就可以做好的事情,微软官方的进入不过是在现有的命令行生态下提供更多的一种选择,而不是真正的问题解决方案。<br />\r\n<br />\r\n你要是用过这些个第三方终端就知道他们的问题很多,并没有解决之前的 cmd.exe 以及 powershell.exe 的痛点,他们只是好看而已,真的只是好看而已<br />\r\n<br />\r\n&gt; Windows 用户所吐槽的命令行不好用不在于其表面,而在于其没有一个足够好用的 Shell<br />\r\n<br />\r\n并不是所有的用户都认", "username": "来自浙江杭州的 Vivaldi 2.5|GNU/Linux 用户", "date": "2019-05-22T15:38:03" }, { "postip": "45.64.120.94", "message": "看一下我的坐标,你这坐标显示应该是拿到user-agent和client IP吧", "username": "来自美国的 Opera 58.0|Windows 10 用户", "date": "2019-06-06T11:14:02" }, { "postip": "123.52.71.156", "message": "文章论点,较高,很有预见性,点赞", "username": "来自河南郑州的 Chrome 75.0|Windows 10 用户", "date": "2019-07-26T21:36:42" }, { "postip": "222.20.54.75", "message": "我的定位呢", "username": "来自湖北武汉华中科技大学的 Chrome 77.0|Windows 10 用户", "date": "2019-08-20T21:05:50" }, { "postip": "54.254.220.242", "message": "查看坐标~", "username": "来自美国的 Chrome 76.0|Windows 10 用户", "date": "2019-08-28T11:27:24" }, { "postip": "222.73.202.154", "message": "不认同博主的“干脆提供 Bash”的观点。Powershell 很好用。<br />\r\n<br />\r\n虽然 pwsh 体验上,距离 linux 工具链还有差距。但是 pwsh 生态也在逐渐建立。比如最常用的 posh-git。还有比较 geek 的 oh-my-posh。<br />\r\n<br />\r\n微软提供的 pwsh 现在底子给的挺好了。能不能用好,我觉得还是看用的人。<br />\r\n<br />\r\n就算 Powershell 不好用。我也不能认同“直接拿某某软件替代”,这种想法。因为按照这个想法,那干脆用 linux 好了。为什么要用 Windows 呢", "username": "来自上海的 Chrome 76.0|Windows 10 用户", "date": "2019-08-28T13:18:05" }, { "postip": "222.73.202.154", "message": "另外再补充一下,wt 真的完爆 cmder 和 hyper", "username": "来自上海的 Chrome 76.0|Windows 10 用户", "date": "2019-08-28T13:21:16" }, { "postip": "59.172.71.107", "message": "定位", "username": "来自湖北武汉的 Chrome 76.0|Windows 10 用户", "date": "2019-09-10T11:42:35" }, { "postip": "59.172.71.107", "message": "定位", "username": "来自湖北武汉的 Chrome 76.0|Windows 10 用户", "date": "2019-09-10T11:42:40" }, { "postip": "23.99.117.9", "message": "一看你对 PowerShell&nbsp;&nbsp;发的牢骚就知道你一定不了解 PowerShell", "username": "来自美国的 Chrome 77.0|Windows 10 用户", "date": "2019-09-20T14:04:14" }, { "postip": "221.4.32.46", "message": "定位", "username": "来自广东广州的 Chrome 76.0|Windows 10 用户", "date": "2019-11-06T15:07:20" }, { "postip": "119.137.54.206", "message": "windows的bat脚本和Unix的sh脚本,我相信他们都能完成在各自系统下的应有的功能。我是个半桶水,不能全面的了解。但就目前来说,我还是对Unix的shell更熟悉些。除了脚本之外,以上的应用终端,无非就是调用系统的脚本命令、可执行文件,界面上的美化,功能上的扩展,这个扩展并不是脚本功能上的扩展。所以Windows Terminal的定位很清晰,就是打造一个这样的一个终端,而不是从底层扩展脚本的功能", "username": "来自广东深圳的 Chrome 78.0|Mac 10.14 用户", "date": "2019-11-27T10:47:57" }, { "postip": "49.78.17.58", "message": "只想有个一站式体验的terminal", "username": "来自江苏的 Chrome 79.0|Windows 10 用户", "date": "2020-02-05T15:50:51" }, { "postip": "3.112.244.42", "message": "wt如何自定义aws或者putty等等", "username": "来自美国的 Chrome 79.0|Windows 10 用户", "date": "2020-02-05T15:52:12" }, { "postip": "110.18.236.57", "message": "一看这个标题就是典型的蹭热度,首先Powershell和bash等完全就是两种设计理念。linux簇拥者们天天吹着命令简介好输入,但是想没想过记起来难记?而Powershell则完全采用另一种做法,所有命令由动词和名词组成,记起来非常好记。输入虽然麻烦一点,但是同样可以使用自动补全来加速,最关键的是Powershell命令一看就能打开明白这是干啥的。当然你要说Powershell管道传递的都是对象,加剧了耦合性,和现有的linux工具水土不服,这我倒是完全同意。最后一点就是我相信吹wt的大部分都是吹它的好用,而不是什么新的shell之类的。虽然大部分windo", "username": "来自内蒙古包头的 Chrome 80.0|Windows 10 用户", "date": "2020-02-22T21:09:38" }, { "postip": "173.82.106.113", "message": "之前一直用的cmder,自从wt出来以后,好像就再没打开过了", "username": "来自美国的 Chrome 87.0|Windows 10 用户", "date": "2020-12-23T14:27:35" }, { "postip": "113.110.38.209", "message": "看到楼主脸被打肿了我就放心了", "username": "来自广东揭阳的 Chrome 91.0|Windows 10 用户", "date": "2021-07-24T00:24:01" }, { "postip": "113.132.179.63", "message": "强烈赞同PowerShell就是个反人类的东西,为了不同而不同", "username": "来自陕西西安的 Chrome 118.0|Windows 10 用户", "date": "2023-11-10T15:56:55" } ]
[ { "raid": 10831, "displayorder": 0 }, { "raid": 10832, "displayorder": 0 } ]
在我看到一时间出现的很多文章,都视 Windows Terminal 为 Windows 下命令行体验的救世主之后,我觉得,是时候泼一盆冷水降降温了。
2019-05-08T11:27:00
2019-05-08T11:27:00
10,828
/article-10828-1.html
![](/data/attachment/album/201905/08/112743fbblple8b81o0xp0.jpg) Windows Terminal 发布以后,立刻引爆了整个技术圈,各种社交媒体上纷纷传播着它的消息,它开源的 GitHub 仓库的星标数一路飙升,迅速成为当日 GitHub 趋势榜的首名,甚至连它 issue 区都挤满了人——以至于项目运营团队紧急出场管理。不过,在我观看了相关的资料和视频以后,感觉并没有那么令人兴奋。 在我看到一时间出现的很多文章,**都视 Windows Terminal 为 Windows 下命令行体验的救世主之后**,我觉得,是时候泼一盆冷水降降温了。 ![](/data/attachment/album/201905/08/112956p8wnttlgt6t3l1n1.jpg) *Windows Terminal 项目下的讨论* ### Windows Terminal 是什么? 在泼冷水之前,我想先来介绍一下 Windows Terminal 是什么,以方便你理解我的观点:**Windows Terminal 是一个套在 Windows 操作系统原本的 CMD、Powershell、Windows Subsystem for Linux(WSL)之上的一个界面更加漂亮、功能更加强大的终端工具。**严格来说,**它是套在 CMD 、Powershell 之上的一个终端。** ![Windows Terminal 效果图](/data/attachment/album/201905/08/112758vpk0qza2aj0a2tlb.jpg) *Powershell on Windows Terminal。图片来源:<https://devblogs.microsoft.com/commandline/introducing-windows-terminal/>* > > 这里需要了解一下<ruby> 终端 <rt> terminal </rt></ruby>和 shell 的区别: > > > 在命令行中,shell 提供了访问操作系统内核功能的途径,比如说我们所熟悉的 bash、zsh,都是不同的 shell;而终端则为 shell 提供视觉界面(窗口),比如我们所熟悉的 iTerm2、Linux 桌面上的终端工具等。甚至于我们在 VSCode 中所使用的命令行,也是某种意义上的终端。 > > > 我们在 Windows 下所使用的 CMD、Powershell 既然是一个终端,也是一个 Shell,还是同名的脚本系统。 > > > 但是,**它也只是一个终端而已,而不是一个更加好用的 Shell**。 ### 为什么 Windows Terminal 不是救世主? 作为一个终端,Windows Terminal 无疑是合格的,它提供了非常强大的功能,来自微软的强大工程能力也让它能够吸引更多的眼球。 ![](/data/attachment/album/201905/08/113042t5i16uzk3kv4rp5d.jpg) *Cmder 效果图。图片来源:Cmder 官网* 但是,如果仅仅是一个终端,其实开源社区早已有更多的解决方案,比如 [cmder](https://cmder.net/)、[ConEmu](https://conemu.github.io/)、[Hyper](https://hyper.is/) 等等,这些 Terminal 也足够好看和好用。 ![ ConEmu 效果图](/data/attachment/album/201905/08/112805ef0mfxbjnsxnjzf8.png) *ConEmu效果图。图片来源:ConEmu 官网* **这种第三方就可以做好的事情,微软官方的进入不过是在现有的命令行生态下提供更多的一种选择,而不是真正的问题解决方案。** ### 当我们吐槽 Windows 命令行时,我们在吐槽什么? 那么我们是对什么不满意呢?**Windows 用户所吐槽的命令行不好用不在于其表面,而在于其没有一个足够好用的 Shell。** Windows 下的两个命令行界面都各有自己的问题,CMD 因为时间久远,很多功能不齐全。而 Power Shell 虽然功能强大,但不合理的命令语法,大量冗长的、驼峰式命名的命令和参数使得用户的命令操作极为不便,体验极差。如果没有一个足够好用的 Shell ,无论换了多少外面的终端,无非是披了一个闪闪发光的、半透明的漂亮外衣罢了。 对于开发者们来说,真正希望 Windows 做的,不是一个更漂亮的终端。漂亮的终端只能让他们一时新鲜,但是如果希望开发者们真正感觉到 Windows 命令行好用,就需要提供一个更加强大的 Shell,帮助开发者能够用上 Unix 式的命令行工具。 ### Windows Terminal + Windows Subsystem for Linux ? 在 Microsoft Build 2019 大会上,除了 Windows Terminal 以外,还发布了 Windows Subsystem for Linux 2(WSL2)。新一代的 WSL 相比于上一代,提供了完整的 Linux 内核,将会提供更好的系统支持。看起来,Windows Terminal 和 WSL 的结合,已经非常完美了,但作为一个 Shell 来用的话,又显的过于笨重。 WSL 2 所提供的,不过是一个更加简单、更加易用的 Windows 下的虚拟机,你不再需要安装 Virtual Box、VMWare 而已,一个 Windows Subsystem for Linux 就可以满足开发者的大部分需求。 但是,这并不能解决问题,这治标不治本的选择。**WSL 无论做的再怎么好,无法摆脱它只是一个运行于 Windows 系统中附属的子系统**。无论 WSL 做的再好,本质上并没有比虚拟机做的更多。 ### 作为一个开发者,我认为什么才是微软真正应该做的? ![Windows Love Linux](/data/attachment/album/201905/08/112805gfqgppemfwgiegjs.jpg) *Windows Love Linux。图片来源:<https://cloudblogs.microsoft.com/windowsserver/2015/05/06/microsoft-loves-linux/>* 作为 Windows 系统的开发者,微软真正的价值显然不是做一个终端那么简单。**作为生态的打造者,微软真正可以做好的是,打造一个能够在体验和生态上与 Unix Shell 一致的 Shell,或者是干脆提供 Bash、Zsh 等常用 Shell 的原生支持**(WSL 虽然支持 Bash、Zsh等,但依然是需要先进入 WSL 才能使用,但你可以畅想一下,如果 CMD 变成了 Bash,会是什么样的呢?)。这些事情是第三方开发者所无法做的更好的,只有生态的构建者在一开始就将一个体验良好的 Shell 放置在系统的核心,无需开发者自行安装、配置,才能够让开发者真正拥有一个好的命令行体验。如果微软能提供一个足够好用的 Shell,我相信类似于 Windows Terminal 这样的应用,会如雨后春笋一般,从开源社区中源源不断的冒出来。 ### 总结 对于广大使用 Windows 开发的用户来说,一个闪闪发亮的、现代化的、功能强大的终端固然很好,但好的终端只不过是锦上添花之举,而一个强大好用的 Shell 才是真正能够雪中送炭的东西,只有一个足够好用的 Shell,才能成为 Windows 命令行世界的救世主。而这,才是真正值得微软花费大量的时间、精力去做的。 ### 延展阅读 * Introducing Windows Terminal:<https://devblogs.microsoft.com/commandline/introducing-windows-terminal/> * Announcing WSL 2:<https://devblogs.microsoft.com/commandline/announcing-wsl-2/> * Windows 下有哪些替代 CMD 的命令行工具?:<https://www.zhihu.com/question/19739424>
每日安全资讯:计算机科学家设计无法被黑的处理器芯片架构
安华金和
密歇根大学的计算机科学家设计出一种新的处理器架构,能主动抵御未来威胁,事实上让现有的 bug 和补丁安全模式过时。
/data/attachment/album/201905/08/114023cuj6nexn6jm39jqf.jpg.thumb.jpg
/data/attachment/album/201905/08/114023cuj6nexn6jm39jqf.jpg
true
false
false
false
[ "芯片", "安全" ]
每日安全资讯
{ "viewnum": 4678, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
密歇根大学的计算机科学家设计出一种新的处理器架构,能主动抵御未来威胁,事实上让现有的 bug 和补丁安全模式过时。
2019-05-08T11:41:20
2019-05-08T11:41:20
10,829
/article-10829-1.html
密歇根大学的计算机科学家设计出一种新的处理器架构,能主动抵御未来威胁,事实上让现有的 bug 和补丁安全模式过时。被称为 MORPHEUS 的芯片通过每秒 20 次加密和随机重编关键数据比特来阻止潜在的攻击,远快于人类黑客能做出反应的速度,比最快的电子黑客技术快数千倍。 密歇根大学教授 Todd Austin 称,今天一个接一个消除 bug 的方法是一种失败的博弈,只要有新的代码,总会出现新的 bug 和安全漏洞。 通过使用 MORPHEUS,即使黑客发现了一个 bug,利用 bug 所需的信息会在 50 毫秒后消失,它可能是最接近不会被黑的安全系统。 ![](/data/attachment/album/201905/08/114023cuj6nexn6jm39jqf.jpg) 来源:solidot.org ### 更多资讯 ##### 加拿大边境服务局因旅客拒绝披露密码而扣押其手机和笔记本电脑 加拿大边境服务局被指因律师拒绝披露密码而扣押其手机和笔记本电脑。这位叫 Nick Wright 的加拿大律师于 4 月 10 日乘飞机在多伦多的 Pearson 机场入境,他被要求接受额外的检查,边境服务局没有给出检查的理由。 来源: solidot.org 详情: <http://t.cn/EoavJhT> ##### 黑客攻击 GitHub 仅获 2.95 美元 买咖啡都不够 据此前报道,日前有黑客攻击 Github,删除了 Git 代码库中一些用户的源代码以及近期的更新,并留下勒索留言,要求受害者支付 0.1 比特币的赎金。攻击者的确收到了赎金,然而收到的比特币甚至还不够在美国买一杯咖啡。 来源: 新浪财经 详情: <http://t.cn/EoavSwv> ##### 网信办征求意见:App 这些行为属违法违规收集个人信息 各有关单位及专家:落实《关于开展 App 违法违规收集使用个人信息专项治理的公告》,App 专项治理工作组在中央网信办、工信部、公安部、市场监管总局指导下,开展了 App 违法违规收集使用个人信息安全评估,发现一些 App 存在强制授权、过度索权、超范围收集个人信息等问题。 来源: 网信中国 详情: <http://t.cn/EoavCY0> ##### 网易邮箱回应大量账号被叫卖:仅涉及邮箱地址,已报案 7 日下午消息,针对媒体报道的“大量网易邮箱账号遭公开叫卖”,网易邮箱在其官方微博上发表声明称, 经查,报道中提及的违法行为,仅涉及邮箱地址,不涉及用户敏感信息,并已第一时间向公安机关报案。今日早些时候,人民创投报道称,在某交流平台,有人公开叫卖网易邮箱账号,百万邮箱售价仅 50 元。卖家自称可向这些邮箱发送营销信息,并展示了据说包含有百万个邮箱账号的文件。经测试,仅有 6 个邮箱发送失败。 来源: 新浪科技 详情: <http://t.cn/EoavOso> (信息来源于网络,安华金和搜集整理)
如何使用 autofs 挂载 NFS 共享
Alan Formy-duval
https://opensource.com/article/18/6/using-autofs-mount-nfs-shares
给你的网络文件系统(NFS)配置一个基本的自动挂载功能。
/data/attachment/album/201905/08/115328rva7kqw9wqh2qees.jpg.thumb.jpg
/data/attachment/album/201905/08/115328rva7kqw9wqh2qees.jpg
true
false
true
lujun9972
geekpi
wxy
false
[ "NFS", "共享" ]
系统运维
{ "viewnum": 9772, "commentnum": 0, "favtimes": 2, "sharetimes": 0, "likes": 0 }
[]
[]
给你的网络文件系统(NFS)配置一个基本的自动挂载功能。
2019-05-08T11:54:05
2019-05-08T11:54:05
10,830
/article-10830-1.html
> > 给你的网络文件系统(NFS)配置一个基本的自动挂载功能。 > > > ![](/data/attachment/album/201905/08/115328rva7kqw9wqh2qees.jpg) 大多数 Linux 文件系统在引导时挂载,并在系统运行时保持挂载状态。对于已在 `fstab` 中配置的任何远程文件系统也是如此。但是,有时你可能希望仅按需挂载远程文件系统。例如,通过减少网络带宽使用来提高性能,或出于安全原因隐藏或混淆某些目录。[autofs](https://wiki.archlinux.org/index.php/autofs) 软件包提供此功能。在本文中,我将介绍如何配置基本的自动挂载。 首先做点假设:假设有台 NFS 服务器 `tree.mydatacenter.net` 已经启动并运行。另外假设一个名为 `ourfiles` 的数据目录还有供 Carl 和 Sarah 使用的用户目录,它们都由服务器共享。 一些最佳实践可以使工作更好:服务器上的用户和任何客户端工作站上的帐号有相同的用户 ID。此外,你的工作站和服务器应有相同的域名。检查相关配置文件应该确认。 ``` alan@workstation1:~$ sudo getent passwd carl sarah [sudo] password for alan: carl:x:1020:1020:Carl,,,:/home/carl:/bin/bash sarah:x:1021:1021:Sarah,,,:/home/sarah:/bin/bash alan@workstation1:~$ sudo getent hosts 127.0.0.1 localhost 127.0.1.1 workstation1.mydatacenter.net workstation1 10.10.1.5 tree.mydatacenter.net tree ``` 如你所见,客户端工作站和 NFS 服务器都在 `hosts` 文件中配置。我假设这是一个基本的家庭甚至小型办公室网络,可能缺乏适合的内部域名服务(即 DNS)。 ### 安装软件包 你只需要安装两个软件包:用于 NFS 客户端的 `nfs-common` 和提供自动挂载的 `autofs`。 ``` alan@workstation1:~$ sudo apt-get install nfs-common autofs ``` 你可以验证 autofs 相关的文件是否已放在 `/etc` 目录中: ``` alan@workstation1:~$ cd /etc; ll auto* -rw-r--r-- 1 root root 12596 Nov 19 2015 autofs.conf -rw-r--r-- 1 root root 857 Mar 10 2017 auto.master -rw-r--r-- 1 root root 708 Jul 6 2017 auto.misc -rwxr-xr-x 1 root root 1039 Nov 19 2015 auto.net* -rwxr-xr-x 1 root root 2191 Nov 19 2015 auto.smb* alan@workstation1:/etc$ ``` ### 配置 autofs 现在你需要编辑其中几个文件并添加 `auto.home` 文件。首先,将以下两行添加到文件 `auto.master` 中: ``` /mnt/tree /etc/auto.misc /home/tree /etc/auto.home ``` 每行以挂载 NFS 共享的目录开头。继续创建这些目录: ``` alan@workstation1:/etc$ sudo mkdir /mnt/tree /home/tree ``` 接下来,将以下行添加到文件 `auto.misc`: ``` ourfiles -fstype=nfs tree:/share/ourfiles ``` 该行表示 autofs 将挂载 `auto.master` 文件中匹配 `auto.misc` 的 `ourfiles` 共享。如上所示,这些文件将在 `/mnt/tree/ourfiles` 目录中。 第三步,使用以下行创建文件 `auto.home`: ``` * -fstype=nfs tree:/home/& ``` 该行表示 autofs 将挂载 `auto.master` 文件中匹配 `auto.home` 的用户共享。在这种情况下,Carl 和 Sarah 的文件将分别在目录 `/home/tree/carl` 或 `/home/tree/sarah`中。星号 `*`(称为通配符)使每个用户的共享可以在登录时自动挂载。`&` 符号也可以作为表示服务器端用户目录的通配符。它们的主目录会相应地根据 `passwd` 文件映射。如果你更喜欢本地主目录,则无需执行此操作。相反,用户可以将其用作特定文件的简单远程存储。 最后,重启 `autofs` 守护进程,以便识别并加载这些配置的更改。 ``` alan@workstation1:/etc$ sudo service autofs restart ``` ### 测试 autofs 如果更改文件 `auto.master` 中的列出目录,并运行 `ls` 命令,那么不会立即看到任何内容。例如,切换到目录 `/mnt/tree`。首先,`ls` 的输出不会显示任何内容,但在运行 `cd ourfiles` 之后,将自动挂载 `ourfiles` 共享目录。 `cd` 命令也将被执行,你将进入新挂载的目录中。 ``` carl@workstation1:~$ cd /mnt/tree carl@workstation1:/mnt/tree$ ls carl@workstation1:/mnt/tree$ cd ourfiles carl@workstation1:/mnt/tree/ourfiles$ ``` 为了进一步确认正常工作,`mount` 命令会显示已挂载共享的细节。 ``` carl@workstation1:~$ mount tree:/mnt/share/ourfiles on /mnt/tree/ourfiles type nfs4 (rw,relatime,vers=4.0,rsize=131072,wsize=131072,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=10.10.1.22,local_lock=none,addr=10.10.1.5) ``` 对于 Carl 和 Sarah,`/home/tree` 目录工作方式相同。 我发现在我的文件管理器中添加这些目录的书签很有用,可以用来快速访问。 --- via: <https://opensource.com/article/18/6/using-autofs-mount-nfs-shares> 作者:[Alan Formy-Duval](https://opensource.com/users/alanfdoss) 选题:[lujun9972](https://github.com/lujun9972) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
对《大家都在点赞 Windows Terminal,我决定给你泼一盆冷水》一文的商榷
Locez
我本人认为,微软的这些拥抱 Linux 的举措,其实就是在吸引 Linux 上的开发者而已,开发者想要的工具,如果能够在 Windows 下就能直接使用,那对我们这些开发人员来说无外乎是喜报。
/data/attachment/album/201905/08/184905be6c46zcbs6vv43n.png.thumb.jpg
/data/attachment/album/201905/08/184905be6c46zcbs6vv43n.png
true
false
false
false
[ "微软", "Windows", "终端" ]
观点
{ "viewnum": 10479, "commentnum": 9, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[ { "postip": "210.21.68.58", "message": "很期待WSL2", "username": "白栋毅 [Chrome 75.0|Windows 10]", "date": "2019-05-08T21:20:06" }, { "postip": "223.104.210.124", "message": "原文作者提到了一个非常直白的论点,市面上已有cmder,conemu这类工具,它们可以实现后台调用cmd或ps或bash,并且发展多年,诸如字体,主题,多Tab更是不在话下。微软这个可能做的更好,但是无疑属于yet another one类型。而cmd自身的硬伤在conemu主页上有明确介绍,ps的不足原文也写的中肯,那种驼峰写法用来写几百行大脚本固然无碍,但是只是做个简单的grep,rm不觉得太麻烦了吗。微软应该在革新cmd上使劲,而不是做一个市面已有的东西。而这个文章对此完全忽略了。", "username": "来自223.104.210.124的 Chrome Mobile 74.0|Android 用户", "date": "2019-05-08T23:15:42" }, { "postip": "36.48.204.251", "message": "已经有的就不能做了?何况windows现在内置的就有cmd,powershell,wsl,做一个自带的统一的现代化terminal难道不是顺理成章吗?为什么不革新cmd,这个就更搞笑,powershell就是为了革cmd搞出来的。至于你说什么grep,你怕是不知道grep根本不是shell的功能,而且grep --color也一样很麻烦,alias了解一下?驼峰什么的powershell可以自动补全的,bash/dash要是那么好也不会有zsh(ohmyzsh)fish,还有一些新兴的带自动补全的terminal了。", "username": "来自吉林松原的 Mobile Safari 12.1|iOS 12.2 用户", "date": "2019-05-09T03:00:08" }, { "postip": "36.48.204.251", "message": "是的WSL2听介绍很不错", "username": "来自吉林松原的 Mobile Safari 12.1|iOS 12.2 用户", "date": "2019-05-09T03:13:09" }, { "postip": "59.78.57.18", "message": "conemu也不完美,yet another one并非没有意义啊。<br />\r\npowershell也有alias,并没有那么难用的。shell的风格更多只是风格问题。<br />\r\n对于cmd微软现在更看重兼容性,发展还得看ps和wsl啊。具体可以去看微软命令行组的博客。", "username": "来自上海上海交通大学的 Chrome Mobile 69.0|Android 8.1 用户", "date": "2019-05-09T13:40:32" }, { "postip": "59.78.57.18", "message": "conemu也不完美,yet another one并非没有意义啊。<br />\r\npowershell也有alias,并没有那么难用的。shell的风格更多只是风格问题。<br />\r\n对于cmd微软现在更看重兼容性,发展还得看ps和wsl啊。具体可以去看微软命令行组的博客。", "username": "来自上海上海交通大学的 Chrome Mobile 69.0|Android 8.1 用户", "date": "2019-05-09T13:40:36" }, { "postip": "119.139.199.205", "message": "微软官方不建议在powershell脚本中使用alias,比如应该使用Get-Content而不是cat取文件内容。不过现在编辑器加上插件,或者IDE用来写ps脚本应该都可以自动补全了,这个问题不大。", "username": "bakaCirno [Chrome 73.0|Windows 10]", "date": "2019-05-10T10:47:35" }, { "postip": "119.139.199.205", "message": "原文章虽然很激进,但实际想表达的应该是,这个本来早就该有的yet another one,现在才有,还受到了大家的热捧,相比起来,其他正在create new one的项目,关注度却不足。当然,可以说是原作者比较酸了,不过这个项目确实没有那么“激动人心”,类比起来就是,本该修建地铁的城市,却坚持十几年只开通公交线路,现在突然推出了双层公交,却被市民争相叫好,实际更需要的是修建地铁啊。<br />\r\n这篇文章的论述就有点偏了,WSL和Windows Terminal是两个项目,虽然有关联,但是收到热烈追捧的是teminal项目,WSL2反而关注度没那么高。<br />\r\n打通WSL和Windows环境远不止能在bash里执行exe文件这么简单,比如要写一个文件处理脚本,就要涉及WSL如何访问宿主的文件系统,文件编码如何转换。当然,这些微软都做了不少工作了,以后支持会越来越好。", "username": "bakaCirno [Chrome 73.0|Windows 10]", "date": "2019-05-10T11:00:18" }, { "postip": "119.139.199.205", "message": "比起写这些windows terminal到底值不值得被追捧的&quot;撕逼&quot;文章,我觉得这个时候出一篇介绍shell和terminal联系和区别的文章,就很好了,也不会引来争议。为了丰富内容,建议(同时也是我个人期望)可以加入shell,terminal,terminal emulator,console,tty,bash/zsh等概念的辨析和关系解释,最好还能包括这些词在历史上的意思和发展(比如早期的电传打字机),最好还能加上字体,terminfo,inputrc等相关文件的介绍和作用解释。我曾经研究过一些资料,但是被其他工作打断了,一直没有继续下去,如果贵站能出一篇相关的文章就最好不过了。<br />\r\n(我在原文章发表了这个评论,不知道为啥被吞了一半?,只好在这里再发表一份。)", "username": "bakaCirno [Chrome 73.0|Windows 10]", "date": "2019-05-10T11:12:19" } ]
[ { "raid": 10828, "displayorder": 0 }, { "raid": 10832, "displayorder": 0 } ]
我本人认为,微软的这些拥抱 Linux 的举措,其实就是在吸引 Linux 上的开发者而已,开发者想要的工具,如果能够在 Windows 下就能直接使用,那对我们这些开发人员来说无外乎是喜报。
2019-05-08T18:46:00
2019-05-08T18:46:00
10,831
/article-10831-1.html
![](/data/attachment/album/201905/08/184905be6c46zcbs6vv43n.png) ### 原文观点 今日 Linux 中国发布了一篇文章 《[大家都在点赞 Windows Terminal,我决定给你泼一盆冷水](/article-10828-1.html)》 。该文主要观点引用如下: * Windows Terminal 是一个套在 Windows 操作系统原本的 CMD、Powershell、Windows Subsystem for Linux(WSL)之上的一个界面更加漂亮、功能更加强大的终端工具。严格来说,它是套在 CMD 、Powershell 之上的一个终端。 * 它也只是一个终端而已,而不是一个更加好用的 Shell。 * Windows 用户所吐槽的命令行不好用不在于其表面,而在于其没有一个足够好用的 Shell。 * 看起来,Windows Terminal 和 WSL 的结合,已经非常完美了,但作为一个 Shell 来用的话,又显的过于笨重。 * WSL 无论做的再怎么好,无法摆脱它只是一个运行于 Windows 系统中附属的子系统。无论 WSL 做的再好,本质上并没有比虚拟机做的更多。 * 作为生态的打造者,微软真正可以做好的是,打造一个能够在体验和生态上与 Unix Shell 一致的 Shell,或者是干脆提供 Bash、Zsh 等常用 Shell 的原生支持(WSL 虽然支持 Bash、Zsh等,但依然是需要先进入 WSL 才能使用,但你可以畅想一下,如果 CMD 变成了 Bash,会是什么样的呢?)。 * 对于广大使用 Windows 开发的用户来说,一个闪闪发亮的、现代化的、功能强大的终端固然很好,但好的终端只不过是锦上添花之举,而一个强大好用的 Shell 才是真正能够雪中送炭的东西,只有一个足够好用的 Shell,才能成为 Windows 命令行世界的救世主。 关于原文更完整的观点,请参阅原文。这里针对原文观点和表达一些不同意见的商榷。 ### Terminal 与 Shell 诚如原文所说,Windows Terminal 其实是一个窗口而已,真正执行的是里面的软件,但是 Windows Terminal 并不如原文说的那么一无是处。众所周知 CMD、PowerShell 默认进入以后是没有标签的,想要使用多个只能多开窗口,管理起来不如够方便,而且配色也是影响使用者快速定位问题的一个重要指标。而这次的 Windows Terminal 不但解决这些问题,还能够支持 emoji,可大大提升在里面所运行的程序的使用体验。 再来说说什么是 shell ?一个 shell 是提供用户与操作系统交互的界面/入口,当我们在命令行中输入各种命令时,其实就是在执行一个应用程序,shell 将这些程序送往内核进行执行,所以最终还是要归到内核的系统调用,此外广义上的 shell 其实还包括了图形界面。 让我们来看看第一个点: > > * Windows Terminal 是一个套在 Windows 操作系统原本的 CMD、Powershell、Windows Subsystem for Linux(WSL)之上的一个界面更加漂亮、功能更加强大的终端工具。严格来说,它是套在 CMD 、Powershell 之上的一个终端。 > > > Windows Terminal 准确来说就是一个支持配色的更加现代的终端入口,也不能说是嵌套什么 CMD、PowerShell、WSL,你想怎么使用它取决于你想进入什么样的命令行解释器。举个 Linux 下的例子就是我可以在 `konsole` 下使用 fish、zsh、bash 等 shell 解释器。 ### 更好用的 shell? > > * 它也只是一个终端而已,而不是一个更加好用的 Shell。 > * Windows 用户所吐槽的命令行不好用不在于其表面,而在于其没有一个足够好用的 Shell。 > * 看起来,Windows Terminal 和 WSL 的结合,已经非常完美了,但作为一个 Shell 来用的话,又显的过于笨重。 > > > 关于这里,我觉得原文作者忽视了 Shell 与 Terminal 的区别。Shell 作为一个命令解释器,必然有自己的语法。而 Linux 生态系统中已经很好用的 shell 就有 fish、zsh、bash 等,但是这些语法也不是所有都兼容的,而且一个好用的 shell 一般只是用户感觉上的东西,没有很明确的指标。Windows 用户在有了 WSL 之后可以使用任何 Linux 已经有的 shell 解释器,这其实已经足够解决问题了,毕竟这些工具的改进是为了吸引 Linux 平台上的开发者,而不是为了一个毫无经验的小白准备的。 此外,原文作者提到的 Windows Terminal 与 WSL(搭载完整内核) 结合作为 shell 使用的话,无异于高射炮打蚊子。这点我也是强烈反对的,首先 shell 只是一个命令解释器,它其实不负责命令的执行,最终所有的程序都要传递给系统调用,如果底层的系统调用不支持,那么该 shell 脚本也是无法执行的(内核不会有反应、或者报错),所以你要使用 shell,那么必须要求有底层内核的支持,这不是什么高射炮打不打蚊子的事,而是你必须要知道其实 shell 它自己本身就是个解释器,没有别的特异功能而已。 一个更好用的 shell 也许是值得吸引人的,但是其实 shell 的语法也不见得多好用,很多反人类的,只是我们已经学习接受了这种语法所以认可它。另一个方面是历史问题,要想你写的脚本一次编写处处执行,那么最好就是 bash 兼容了,否则别人为了执行你的特殊语法,还要装一个能读懂你的 shell 语法的解释器。 ### wsl 与虚拟机? > > * WSL 无论做的再怎么好,无法摆脱它只是一个运行于 Windows 系统中附属的子系统。无论 WSL 做的再好,本质上并没有比虚拟机做的更多。 > > > 我其实觉得这句话没有道理,为什么这样说呢,确实 WSL 不会比虚拟机做的更多,因为你虚拟机安装的是一个完整的操作系统,但是 WSL 优势是什么? WSL 的优势就是不需要虚拟机,你便可以使用大部分 Linux 的生态,这是向开发人员示好。而且 WSL 不需要长期运行一个虚拟机,在 WSL1 的时候,你实际执行应用 WSL 会把系统调用转成 NT 系统调用。而 WSL2 将包含完整 Linux 内核,还将支持 Docker(此处无法得知它具体的实现,不做推测)。WSL1 的限制很多,使用起来不是特别方便,这个有使用过的朋友应该很有体会,但是 WSL2 既然能运行 Docker,那么有了 Docker 我就有了一切。 ### 生态体验? > > * 作为生态的打造者,微软真正可以做好的是,打造一个能够在体验和生态上与 Unix Shell 一致的 Shell,或者是干脆提供 Bash、Zsh 等常用 Shell 的原生支持(WSL 虽然支持 Bash、Zsh等,但依然是需要先进入 WSL 才能使用,但你可以畅想一下,如果 CMD 变成了 Bash,会是什么样的呢?)。 > * 对于广大使用 Windows 开发的用户来说,一个闪闪发亮的、现代化的、功能强大的终端固然很好,但好的终端只不过是锦上添花之举,而一个强大好用的 Shell 才是真正能够雪中送炭的东西,只有一个足够好用的 Shell,才能成为 Windows 命令行世界的救世主。 > > > 这两个观点也是不攻自破的,我既然可以使用 WSL,那么我本身就拥有了 Linux 的生态。如果是希望写 bat 批处理而能有 bash、zsh 的这些体验,那么确实是需要一个新的 shell 满足 Unix Shell 语法,再来解释 Windows 下的命令行,可是这其实也是不需要的。因为本人发现在 WSL 里面执行一个 exe 程序是完全可行的,因此可以用这种 shell 语法去编写我的脚本,oh nice!!体验非常统一啊有没有? ``` locez@Lenovo-PC~> pycharm64.exe ### 会启动我的 pycharm locez@Lenovo-PC~> git.exe | xargs echo ``` ### 我的观点 我本人认为,微软的这些拥抱 Linux 的举措,其实就是在吸引 Linux 上的开发者而已,开发者想要的工具,如果能够在 Windows 下就能直接使用,那对我们这些开发人员来说无外乎是喜报。工具多一个总不是坏事,但是如果它真的值得使用,那么用户一定会增加,这就是需要微软来做的事情了。我本人是双系统用户,在打游戏娱乐方面我一定会使用 Windows,做开发写代码我会切换到 Linux,曾经写一个很小的软件也是如此。但是后来 WSL 出现了,简单的脚本我可以在 Windows 下就直接完成并且提交,不需要重启系统,然后继续玩我的游戏,美滋滋。 另外就是 Windows Terminal 与 WSL2 的出现会解放我现在系统上的一些工具,例如 git bash、gpg4win 等。如果 WSL2 真的有完整的系统调用,那么我现有的 Windows 上的开发环境便不再需要,专注于游戏娱乐,但是一进 WSL 便是我工作学习的地方。
关于 Windows Terminal,人民群众都在聊些什么?
Northurland
无论这一产品本身如何、它的未来将去向何方,至少,它在这两天吸足了眼球。
/data/attachment/album/201905/08/224905ftztz439xgwtigvu.jpg.thumb.jpg
/data/attachment/album/201905/08/224905ftztz439xgwtigvu.jpg
true
false
false
false
[ "终端", "Windows" ]
观点
{ "viewnum": 10655, "commentnum": 3, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[ { "postip": "118.122.120.11", "message": "Prerequisites 微软翻译为先决条件,不是翻译前提条件。", "username": "来自四川成都的 Chrome 73.0|Fedora 用户", "date": "2019-05-09T09:59:51" }, { "postip": "27.223.84.74", "message": "注意:这篇文章没什么实际意义……<br />\r\n哈哈!", "username": "绿色圣光 [Firefox 60.0|GNU/Linux]", "date": "2019-05-10T09:21:24" }, { "postip": "120.229.45.242", "message": "有意思,脑洞真大。", "username": "何亮 [Chrome 72.0|Windows 10]", "date": "2019-06-08T15:38:06" } ]
[ { "raid": 10828, "displayorder": 0 }, { "raid": 10831, "displayorder": 1 } ]
无论这一产品本身如何、它的未来将去向何方,至少,它在这两天吸足了眼球。
2019-05-08T22:49:24
2019-05-08T22:49:24
10,832
/article-10832-1.html
![](/data/attachment/album/201905/08/224905ftztz439xgwtigvu.jpg) /\*注意:这篇文章没什么实际意义……\*/ 就如大家所知,5 月 6 日,微软宣布了新的 Windows 命令行界面 —— Windows Terminal。 无论这一产品本身如何、它的未来将去向何方,至少,它在这两天吸足了眼球。技术媒体争相复制黏贴相关通稿,大量人群涌入[项目的 Github 仓库](https://github.com/microsoft/Terminal),2 天内点出超过 20000 星标 —— 并于今日成功跃居 Github 趋势榜榜首。 ![](/data/attachment/album/201905/08/221310xffu7vpng3x3xk3s.jpg) 在项目宣布、仓库开放的这两天中,截止至发稿时,已经发生了 20 次提交,新增的 issue 有 121 条 —— 这个数字仍然以相当高的速度增长。截止至发稿时间,这些 issue 中有 72 条未被关闭,但剩余的 49 条(主要是问题之类)已经得到处理。作为对比,同样是微软的开源项目,具有接近 50000 星标的 TypeScript 在七天内总共有新 issue 75 条,这个数字比 Terminal 的 121 条少了三分之一。人群的涌入并不是 issue 数量极多的唯一原因:事实上,这个项目目前还处于 alpha 测试的早期阶段,问题多多在所难免。在目前开放的 issue 中,大部分是 bug 报告,其次是特性请求;我们可以注意到,bug 报告以界面 bug 为主(字体渲染问题,颜色问题,等等),而特性请求大多与交互方式相关。 ![](/data/attachment/album/201905/08/221345xbf3z6d6wzddruwz.jpg) *界面 bug:“输入emoji会导致光标位置异常”* 许多的提问已经被关闭,但似乎新的问题正不断冒出;最常见的几个问题分别是: * “我该如何编译这个项目?”(包括各种变体,比如 VS 报错,编译失败等等) * “是否有官方的二进制文件放出?” * “为什么我打开编译好的程序,它看起来却和旧的界面差不多?” ![](/data/attachment/album/201905/08/221418u7mkm10ghjm5k33v.jpg) *(项目组把编译指南放在了明显位置)* 在部分吃瓜群众面对 VS 枯坐时,另一些吃瓜群众决定打开他们的脑洞。已关闭的 issue 中包含了一些特别的提问:提出者想要知道能不能在 Linux / MacOS 中使用这个项目,但被项目组人员告知目前没有将它登陆其他平台的打算。 ![](/data/attachment/album/201905/08/221457fej12llpec4e2iul.jpg) *“功能请求: Linux 支持。拜托了。”* 目前,许多网友对这一项目表示了惊喜和看好。尽管现在到处可以见到“吹爆”式的评论,但如果谈起人民群众,当然不能错过一支永远期待着微软出洋相的互联网力量(当然我们很“惊喜”地发现很多吐槽是中文的): ![](/data/attachment/album/201905/08/221604rrilgav77g1zs1qx.jpg) *评论总结:巨硬辣鸡!(破音)* 也少不了奇葩: ![](/data/attachment/album/201905/08/221808v0k85v1b547ca4d4.jpg) *(看看下面的 emoji 就能够感受到这条 issue 给广大群众的快乐)* *![](/data/attachment/album/201905/08/221841dbc86956s4pulwzy.jpg)* *(我觉得你应该跟开发 LOL 的公司聊聊)* ![](/data/attachment/album/201905/08/221859ojx5s1poipyxsqfy.jpg) *(我真不想承认我看得懂你的文字)* *![](/data/attachment/album/201905/08/221953j6v6u6k8z64p64kh.jpg)* *(而这就是在捣乱了)* 现场一度极其热闹,以至于项目管理方出手干预之后才避免成了瓜地。 如果没有自己试着接触过讨论对象,参加讨论时恐怕难免会有一种云玩家般的心虚感。笔者用亲身经历告诉你,别看讨论热火朝天,想要用上这尚在a测的新终端,事实上并不是那么容易的:无论是自行编译项目还是用现在网上第三方编译的安装包安装,你都需要……嗯,系统更新。 ![](/data/attachment/album/201905/08/222246yy5iiweq2y5wiyfe.jpg) *“前提条件:你需要 Windows 1903 或以上版本以运行 Windows Terminal.”* 看着 VS 里一条条的报错,和这霸道的官方要求,我仰天大喊: “我看这破软,是药丸呐!”
Python 的加密库入门
Moshe Zadka
https://opensource.com/article/19/4/cryptography-python
加密你的数据并使其免受攻击者的攻击。
/data/attachment/album/201905/09/102717p0zgyiygeyyizy7g.jpg.thumb.jpg
/data/attachment/album/201905/09/102717p0zgyiygeyyizy7g.jpg
true
false
true
lujun9972
geekpi
wxy
false
[ "加密", "Python" ]
软件开发
{ "viewnum": 6462, "commentnum": 0, "favtimes": 1, "sharetimes": 0, "likes": 0 }
[]
[]
加密你的数据并使其免受攻击者的攻击。
2019-05-09T10:27:23
2019-05-09T10:27:23
10,833
/article-10833-1.html
> > 加密你的数据并使其免受攻击者的攻击。 > > > ![](/data/attachment/album/201905/09/102717p0zgyiygeyyizy7g.jpg) 密码学俱乐部的第一条规则是:永远不要自己*发明*密码系统。密码学俱乐部的第二条规则是:永远不要自己*实现*密码系统:在现实世界中,在*实现*以及设计密码系统阶段都找到过许多漏洞。 Python 中的一个有用的基本加密库就叫做 [cryptography](https://cryptography.io/en/latest/)。它既是一个“安全”方面的基础库,也是一个“危险”层。“危险”层需要更加小心和相关的知识,并且使用它很容易出现安全漏洞。在这篇介绍性文章中,我们不会涵盖“危险”层中的任何内容! cryptography 库中最有用的高级安全功能是一种 Fernet 实现。Fernet 是一种遵循最佳实践的加密缓冲区的标准。它不适用于非常大的文件,如千兆字节以上的文件,因为它要求你一次加载要加密或解密的内容到内存缓冲区中。 Fernet 支持<ruby> 对称 <rt> symmetric </rt></ruby>(即<ruby> 密钥 <rt> secret key </rt></ruby>)加密方式\*:加密和解密使用相同的密钥,因此必须保持安全。 生成密钥很简单: ``` >>> k = fernet.Fernet.generate_key() >>> type(k) <class 'bytes'> ``` 这些字节可以写入有适当权限的文件,最好是在安全的机器上。 有了密钥后,加密也很容易: ``` >>> frn = fernet.Fernet(k) >>> encrypted = frn.encrypt(b"x marks the spot") >>> encrypted[:10] b'gAAAAABb1' ``` 如果在你的机器上加密,你会看到略微不同的值。不仅因为(我希望)你生成了和我不同的密钥,而且因为 Fernet 将要加密的值与一些随机生成的缓冲区连接起来。这是我之前提到的“最佳实践”之一:它将阻止对手分辨哪些加密值是相同的,这有时是攻击的重要部分。 解密同样简单: ``` >>> frn = fernet.Fernet(k) >>> frn.decrypt(encrypted) b'x marks the spot' ``` 请注意,这仅加密和解密*字节串*。为了加密和解密*文本串*,通常需要对它们使用 [UTF-8](https://en.wikipedia.org/wiki/UTF-8) 进行编码和解码。 20 世纪中期密码学最有趣的进展之一是<ruby> 公钥 <rt> public key </rt></ruby>加密。它可以在发布加密密钥的同时而让*解密密钥*保持保密。例如,它可用于保存服务器使用的 API 密钥:服务器是唯一可以访问解密密钥的一方,但是任何人都可以保存公共加密密钥。 虽然 cryptography 没有任何支持公钥加密的*安全*功能,但 [PyNaCl](https://pynacl.readthedocs.io/en/stable/) 库有。PyNaCl 封装并提供了一些很好的方法来使用 Daniel J. Bernstein 发明的 [NaCl](https://nacl.cr.yp.to/) 加密系统。 NaCl 始终同时<ruby> 加密 <rt> encrypt </rt></ruby>和<ruby> 签名 <rt> sign </rt></ruby>或者同时<ruby> 解密 <rt> decrypt </rt></ruby>和<ruby> 验证签名 <rt> verify signature </rt></ruby>。这是一种防止<ruby> 基于可伸缩性 <rt> malleability-based </rt></ruby>的攻击的方法,其中攻击者会修改加密值。 加密是使用公钥完成的,而签名是使用密钥完成的: ``` >>> from nacl.public import PrivateKey, PublicKey, Box >>> source = PrivateKey.generate() >>> with open("target.pubkey", "rb") as fpin: ... target_public_key = PublicKey(fpin.read()) >>> enc_box = Box(source, target_public_key) >>> result = enc_box.encrypt(b"x marks the spot") >>> result[:4] b'\xe2\x1c0\xa4' ``` 解密颠倒了角色:它需要私钥进行解密,需要公钥验证签名: ``` >>> from nacl.public import PrivateKey, PublicKey, Box >>> with open("source.pubkey", "rb") as fpin: ... source_public_key = PublicKey(fpin.read()) >>> with open("target.private_key", "rb") as fpin: ... target = PrivateKey(fpin.read()) >>> dec_box = Box(target, source_public_key) >>> dec_box.decrypt(result) b'x marks the spot' ``` 最后,[PocketProtector](https://github.com/SimpleLegal/pocket_protector/blob/master/USER_GUIDE.md) 库构建在 PyNaCl 之上,包含完整的密钥管理方案。 --- via: <https://opensource.com/article/19/4/cryptography-python> 作者:[Moshe Zadka](https://opensource.com/users/moshez) 选题:[lujun9972](https://github.com/lujun9972) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
为何 DevOps 是如今最重要的技术策略
Kelly Albrecht
https://opensource.com/article/19/3/devops-most-important-tech-strategy
消除一些关于 DevOps 的疑惑。
/data/attachment/album/201905/09/113035w6wk5dkkuwwwdd9j.png.thumb.jpg
/data/attachment/album/201905/09/113035w6wk5dkkuwwwdd9j.png
true
false
true
lujun9972
zgj1024
wxy
false
[ "DevOps" ]
观点
{ "viewnum": 6787, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
消除一些关于 DevOps 的疑惑。
2019-05-09T11:30:32
2019-05-09T11:30:32
10,834
/article-10834-1.html
> > 消除一些关于 DevOps 的疑惑。 > > > ![CICD with gears](/data/attachment/album/201905/09/113035w6wk5dkkuwwwdd9j.png "CICD with gears") 很多人初学 [DevOps](https://opensource.com/resources/devops) 时,看到它其中一个结果就问这个是如何得来的。其实理解这部分 Devops 的怎样实现并不重要,重要的是——理解(使用) DevOps 策略的原因——这是做一个行业的领导者还是追随者的差别。 你可能会听过些 Devops 的难以置信的成果,例如生产环境非常有弹性,就算是有个“<ruby> <a href="https://github.com/Netflix/chaosmonkey"> 癫狂的猴子 </a> <rt> Chaos Monkey </rt></ruby>)跳来跳去将不知道哪个插头随便拔下,每天仍可以处理数千个发布。这是令人印象深刻的,但就其本身而言,这是一个 DevOps 的证据不足的案例,其本质上会被一个[反例](https://en.wikipedia.org/wiki/Burden_of_proof_(philosophy)#Proving_a_negative)困扰:DevOps 环境有弹性是因为严重的故障还没有被观测到。 有很多关于 DevOps 的疑惑,并且许多人还在尝试弄清楚它的意义。下面是来自我 LinkedIn Feed 中的某个人的一个案例: > > 最近我参加一些 #DevOps 的交流会,那里一些演讲人好像在倡导 #敏捷开发是 DevOps 的子集。不知为何,我的理解恰恰相反。 > > > 能听一下你们的想法吗?你认为敏捷开发和 DevOps 之间是什么关系呢? > > > 1. DevOps 是敏捷开发的子集 > 2. 敏捷开发是 DevOps 的子集 > 3. DevOps 是敏捷开发的扩展,从敏捷开发结束的地方开始 > 4. DevOps 是敏捷开发的新版本 > > > 科技行业的专业人士在那篇 LinkedIn 的帖子上表达了各种各样的答案,你会怎样回复呢? ### DevOps 源于精益和敏捷 如果我们从亨利福特的战略和丰田生产系统对福特车型的改进(的历史)开始, DevOps 就更有意义了。精益制造就诞生在那段历史中,人们对精益制作进行了良好的研究。James P. Womack 和 Daniel T. Jones 将精益思维([Lean Thinking](https://www.amazon.com/dp/B0048WQDIO/ref=dp-kindle-redirect?_encoding=UTF8&btkr=1))提炼为五个原则: 1. 指明客户所需的价值 2. 确定提供该价值的每个产品的价值流,并对当前提供该价值所需的所有浪费步骤提起挑战 3. 使产品通过剩余的增值步骤持续流动 4. 在可以连续流动的所有步骤之间引入拉力 5. 管理要尽善尽美,以便为客户服务所需的步骤数量和时间以及信息量持续下降 精益致力于持续消除浪费并增加客户的价值流动。这很容易识别并明白精益的核心原则:单一流。我们可以做一些游戏去了解为何同一时间移动单个比批量移动要快得多。其中的两个游戏是[硬币游戏](https://youtu.be/5t6GhcvKB8o?t=54)和[飞机游戏](https://www.shmula.com/paper-airplane-game-pull-systems-push-systems/8280/)。在硬币游戏中,如果一批 20 个硬币到顾客手中要用 2 分钟,顾客等 2 分钟后能拿到整批硬币。如果一次只移动一个硬币,顾客会在 5 秒内得到第一枚硬币,并会持续获得硬币,直到在大约 25 秒后第 20 个硬币到达。(LCTT 译注:有相关的视频的) 这是巨大的不同,但是不是生活中的所有事都像硬币游戏那样简单并可预测的。这就是敏捷的出现的原因。我们当然看到了高效绩敏捷团队的精益原则,但这些团队需要的不仅仅是精益去做他们要做的事。 为了能够处理典型的软件开发任务的不可预见性和变化,敏捷开发的方法论会将重点放在意识、审议、决策和行动上,以便在不断变化的现实中调整。例如,敏捷框架(如 srcum)通过每日站立会议和冲刺评审会议等仪式提高意识。如果 scrum 团队意识到新的事实,框架允许并鼓励他们在必要时及时调整路线。 要使团队做出这些类型的决策,他们需要高度信任的环境中的自我组织能力。以这种方式工作的高效绩敏捷团队在不断调整的同时实现快速的价值流,消除错误方向上的浪费。 ### 最佳批量大小 要了解 DevOps 在软件开发中的强大功能,这会帮助我们理解批处理大小的经济学。请考虑以下来自Donald Reinertsen 的[产品开发流程原则](https://www.amazon.com/dp/B00K7OWG7O/ref=dp-kindle-redirect?_encoding=UTF8&btkr=1)的U曲线优化示例: ![U-curve optimization illustration of optimal batch size](/data/attachment/album/201905/09/113035g7mkqcosm5o3koce.gif "U-curve optimization illustration of optimal batch size") 这可以类比杂货店购物来解释。假设你需要买一些鸡蛋,而你住的地方离商店只有 30 分钟的路程。买一个鸡蛋(图中最左边)意味着每次要花 30 分钟的路程,这就是你的*交易成本*。*持有成本*可能是鸡蛋变质和在你的冰箱中持续地占用空间。*总成本*是*交易成本*加上你的*持有成本*。这个 U 型曲线解释了为什么对大部分人来说,一次买一打鸡蛋是他们的*最佳批量大小*。如果你就住在商店的旁边,步行到那里不会花费你任何的时候,你可能每次只会买一小盒鸡蛋,以此来节省冰箱的空间并享受新鲜的鸡蛋。 这 U 型优化曲线可以说明为什么在成功的敏捷转换中生产力会显著提高。考虑敏捷转换对组织决策的影响。在传统的分级组织中,决策权是集中的。这会导致较少的人做更大的决策。敏捷方法论会有效地降低组织决策中的交易成本,方法是将决策分散到最被人熟知的认识和信息的位置:跨越高度信任,自组织的敏捷团队。 下面的动画演示了降低事务成本后,最佳批量大小是如何向左移动。在更频繁地做出更快的决策方面,你不能低估组织的价值。 ![U-curve optimization illustration](/data/attachment/album/201905/09/113036ivmatigmr1wpwimx.gif "U-curve optimization illustration") ### DevOps 适合哪些地方 自动化是 DevOps 最知名的事情之一。前面的插图非常详细地展示了自动化的价值。通过自动化,我们将交易成本降低到接近于零,实质上是可以免费进行测试和部署。这使我们可以利用越来越小的批量工作。较小批量的工作更容易理解、提交、测试、审查和知道何时能完成。这些较小的批量大小也包含较少的差异和风险,使其更易于部署,如果出现问题,可以进行故障排除和恢复。通过自动化与扎实的敏捷实践相结合,我们可以使我们的功能开发非常接近单件流程,从而快速、持续地为客户提供价值。 更传统地说,DevOps 被理解为一种打破开发团队和运营团队之间混乱局面的方法。在这个模型中,开发团队开发新的功能,而运营团队则保持系统的稳定和平稳运行。摩擦的发生是因为开发过程中的新功能将更改引入到系统中,从而增加了停机的风险,运营团队并不认为要对此负责,但无论如何都必须处理这一问题。DevOps 不仅仅尝试让人们一起工作,更重要的是尝试在复杂的环境中安全地进行更频繁的更改。 我们可以看看 [Ron Westrum](https://en.wikipedia.org/wiki/Ron_Westrum) 在有关复杂组织中实现安全性的研究。在研究为什么有些组织比其他组织更安全时,他发现组织的文化可以预测其安全性。他确定了三种文化:病态的、官僚主义的和生产式的。他发现病态的可以预测其安全性较低,而生产式文化被预测为更安全(例如,在他的主要研究领域中,飞机坠毁或意外住院死亡的数量要少得多)。 ![Three types of culture identified by Ron Westrum](/data/attachment/album/201905/09/113037hzym1y1rt5gepmyg.png "Three types of culture identified by Ron Westrum") 高效的 DevOps 团队通过精益和敏捷的实践实现了一种生成性文化,这表明速度和安全性是互补的,或者说是同一个问题的两个方面。通过将决策和功能的最佳批量大小减少到非常小,DevOps 实现了更快的信息流和价值,同时消除了浪费并降低了风险。 与 Westrum 的研究一致,在提高安全性和可靠性的同时,变化也很容易发生。当一个敏捷的 DevOps 团队被信任做出自己的决定时,我们将获得 DevOps 目前最为人所知的工具和技术:自动化和持续交付。通过这种自动化,交易成本比以往任何时候都进一步降低,并且实现了近乎单一的精益流程,每天创造数千个决策和发布的潜力,正如我们在高效绩的 DevOps 组织中看到的那样 ### 流动、反馈、学习 DevOps 并不止于此。我们主要讨论了 DevOps 实现了革命性的流程,但通过类似的努力可以进一步放大精益和敏捷实践,从而实现更快的反馈循环和更快的学习。在[DevOps手册](https://www.amazon.com/DevOps-Handbook-World-Class-Reliability-Organizations/dp/1942788002/ref=sr_1_3?keywords=DevOps+handbook&qid=1553197361&s=books&sr=1-3) 中,作者除了详细解释快速流程外, DevOps 如何在整个价值流中实现遥测,从而获得快速且持续的反馈。此外,利用[精益求精的突破](https://en.wikipedia.org/wiki/Kaizen)和 scrum 的[回顾](https://www.scrum.org/resources/what-is-a-sprint-retrospective),高效的 DevOps 团队将不断推动学习和持续改进深入到他们的组织的基础,实现软件产品开发行业的精益制造革命。 ### 从 DevOps 评估开始 利用 DevOps 的第一步是,经过大量研究或在 DevOps 顾问和教练的帮助下,对高效绩 DevOps 团队中始终存在的一系列维度进行评估。评估应确定需要改进的薄弱或不存在的团队规范。对评估的结果进行评估,以找到具有高成功机会的快速获胜焦点领域,从而产生高影响力的改进。快速获胜非常重要,能让团队获取解决更具挑战性领域所需的动力。团队应该产生可以快速尝试的想法,并开始关注 DevOps 转型。 一段时间后,团队应重新评估相同的维度,以衡量改进并确立新的高影响力重点领域,并再次采纳团队的新想法。一位好的教练将根据需要进行咨询、培训、指导和支持,直到团队拥有自己的持续改进方案,并通过不断地重新评估、试验和学习,在所有维度上实现近乎一致。 在本文的[第二部分](https://opensource.com/article/19/3/where-drupal-community-stands-devops-adoption)中,我们将查看 Drupal 社区中 DevOps 调查的结果,并了解最有可能找到快速获胜的位置。 --- via: <https://opensource.com/article/19/3/devops-most-important-tech-strategy> 作者:[Kelly Albrecht](https://opensource.com/users/ksalbrecht/users/brentaaronreed/users/wpschaub/users/wpschaub/users/ksalbrecht) 选题:[lujun9972](https://github.com/lujun9972) 译者:[zgj1024](https://github.com/zgj1024) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
每日安全资讯:美中情局分享暗网加密链接 网友吐槽:原来是这样监视我们
安华金和
美国中央情报局(CIA)最近一改“神秘”形象,开始在社交网站上“抖机灵”。两周前,中情局在 Instagram 上发布一张“猜谜”照片,吸了一波流量,没想到7日却因在推特上分享的暗网链接“翻了车”。
/data/attachment/album/201905/09/113923ku1rdmifmiudez4a.jpg.thumb.jpg
/data/attachment/album/201905/09/113923ku1rdmifmiudez4a.jpg
true
false
false
false
[ "Tor", "CIA" ]
每日安全资讯
{ "viewnum": 5179, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
美国中央情报局(CIA)最近一改“神秘”形象,开始在社交网站上“抖机灵”。两周前,中情局在 Instagram 上发布一张“猜谜”照片,吸了一波流量,没想到7日却因在推特上分享的暗网链接“翻了车”。
2019-05-09T11:39:00
2019-05-09T11:39:00
10,835
/article-10835-1.html
![](/data/attachment/album/201905/09/113923ku1rdmifmiudez4a.jpg) 美国中央情报局(CIA)最近一改“神秘”形象,开始在社交网站上“抖机灵”。两周前,中情局在 Instagram 上发布一张“猜谜”照片,吸了一波流量,没想到7日却因在推特上分享的暗网链接“翻了车”。 “来洋葱网络(Tor network)找我们呀!”5 月 7 日,中情局一连在推特上发布了 4 条加密链接相关推文。中情局公布了其在洋葱网络的网址链接,承诺网友可以匿名通过该平台上向政府“提供信息”。 ![1.png](/data/attachment/album/201905/09/113942w60af0t6i7w76ank.png) *推特截图* 中情局在推文中写到:“情报收集任务存在着安全、匿名、不可追踪等特点,洋葱网络也刚好具有同样特性。中情局信息一应俱全,如果想获得相关内容,请点击下方链接。” ![2.png](/data/attachment/album/201905/09/113942h2bdkdd3mgm25ydx.png) *推特截图* 中情局此举也让网友感到疑惑:洋葱网络到底是不是间谍工具?推特上网友回复似乎不完全符合中情局的意。有网友断然拒绝:不用,谢谢!另有评论称:“原来中情局就是这么监视美国民众的。” 更有网友认为,中情局使用加密网络与罪犯和恐怖分子使用的是一样的,被讽刺称“肯定不会让人失望”。(海外网 张琪) 来源:cnBeta.COM ### 更多资讯 ##### FBI 查获并捣毁暗网索引和新闻网站 Deep Dot Web 据外媒报道,美国 FBI 日前已查获暗网索引和新闻网站 Deep Dot Web。该网站的暗网现已被撤下,取而代之的是一个通知。根据通知了解到,FBI 联合电脑犯罪调查人员和欧洲执法部门并在接到搜查令后查封了该网站。 来源: 海外网 详情: <http://t.cn/EoO361X> ##### 除 bug 务尽 Mozilla 再次更新 Firefox 以修复扩展被禁用的相关问题 上周末,Mozilla 意外地在桌面和 Android 上安装的 Firefox 浏览器上禁用了许多用户的附加组件,引发一阵混乱,一天后, Mozilla 推出 Firefox 66.0.4,许多问题就得到了解决,但事实上公司承认仍有一大批用户存在一些遗留问题,他们通常需要等待很长时间才会恢复正常,而使用今天新发布的 Firefox 66.0.5,就可以有立竿见影的疗效。 来源: cnBeta.COM 详情: <http://t.cn/EoO3o8m> ##### 大连警方破获一起侵犯公民个人信息案 查获个人信息近亿条 大连警方近日成功破获一起侵犯公民个人信息案,抓获犯罪嫌疑人 1 名,查获公民个人信息数量近亿条。 来源: 新华网 详情: <http://t.cn/EoO3NYO> (信息来源于网络,安华金和搜集整理)
为何《贡献者许可协议》不利于开源社区?
Richard Fontana
https://opensource.com/article/19/2/cla-problems
开源社区中很少有法律话题像《贡献者许可协议》一样具有争议性。
/data/attachment/album/201905/10/091542s4mbpabv45gccbca.jpg.thumb.jpg
/data/attachment/album/201905/10/091542s4mbpabv45gccbca.jpg
true
false
true
薛亮
false
[ "CLA" ]
开源智慧
{ "viewnum": 10604, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
开源社区中很少有法律话题像《贡献者许可协议》一样具有争议性。
2019-05-10T09:16:01
2019-05-10T09:16:01
10,836
/article-10836-1.html
> > 开源社区中很少有法律话题像《贡献者许可协议》一样具有争议性。 > > > ![](/data/attachment/album/201905/10/091542s4mbpabv45gccbca.jpg) 开源社区中很少有法律话题像《[贡献者许可协议](https://opensource.com/article/18/3/cla-vs-dco-whats-difference)》(CLA)一样具有争议性。除非你算上《[Fedora 项目贡献者协议](https://opensource.com/law/10/6/new-contributor-agreement-fedora)》(我一直被视为非 CLA)的特殊历史案例,或者像 [Karl Fogel](https://www.red-bean.com/kfogel/) 一样,将《[开发者原创证书](https://developercertificate.org/)》(DCO)归类为[一种 CLA](https://producingoss.com/en/contributor-agreements.html#developer-certificate-of-origin)。目前红帽公司在其维护的项目中没有使用 CLA。 过去情况并非如此。红帽公司最早的项目遵循我称之为<ruby> “入站=出站” <rp> ( </rp> <rt> inbound=outbound </rt> <rp> ) </rp></ruby>的传统做法,其中对项目的贡献仅根据项目的开源许可协议提供,不需要执行外部非自由和开源许可协议。但在 21 世纪初,红帽公司开始尝试使用贡献者协议。Fedora 开始要求贡献者签署基于广泛采用的 [Apache ICLA](https://www.apache.org/licenses/icla.pdf) 制定的 CLA,而自由软件基金会衍生的版权转让协议和一对定制的 CLA 分别继承自 Cygnus 和 JBoss 的收购。我们甚至采取了[一些措施](https://www.freeipa.org/page/Why_CLA%3F),在快速增长的红帽公司主导项目中采用 Apache 风格的 CLA。 这种情况已经结束,很大程度上是因为我们红帽公司法律团队成员听到并理解了红帽工程师和更广泛的技术社区提出的担忧和异议。我们继续成为一些人称之为反 CLA 运动的事实上的领导者,特别是我们[反对 Project Harmony](https://opensource.com/law/11/7/trouble-harmony-part-1) 以及我们[努力](https://wiki.openstack.org/wiki/OpenStackAndItsCLA)让 OpenStack 用 DCO 取代其 CLA。(我们[不情愿地](https://opensource.com/article/19/1/cla-proliferation)签署可容忍的不符合实际需要的上游项目 CLA) ### 为什么 CLA 存在问题 我们不使用 CLA 的选择反映了我们作为一个真正的开源公司的价值观,它在自由软件运动中有着深厚的根源。多年来,许多开源社区已经解释了为什么 CLA 以及类似的版权分配机制对于开源来说是一个糟糕的政策。 其中一个原因是繁文缛节问题。通常情况下,开源开发的特点是<ruby> 无障碍 <rp> ( </rp> <rt> frictionless </rt> <rp> ) </rp></ruby>贡献,这可以通过“入站=出站”来实现,而不需要进行进一步的法律仪式或流程。这使得新贡献者相对容易参与项目,允许贡献者社区更有效的增长并推动上游的技术创新。无障碍贡献是开源开发针对专有替代品享有优势的关键部分。但是,CLA 否定了无障碍的贡献。在贡献被接受之前签署不寻常的法律协议会造成官僚主义障碍,从而减缓发展并阻碍参与。尽管采用 CLA 的项目越来越多地使用自动化手段,但这种成本仍然存在。 CLA 还会导致项目参与者之间的法律权力不对称,这也阻碍了项目周边主要贡献者和用户社区的增长。使用 Apache 风格的 CLA,领导项目的公司或组织获得其他贡献者无法获得的特殊权利,而其他贡献者必须承担项目负责人免除的某些法律义务(除了繁文缛节负担)。在<ruby> 左版 <rp> ( </rp> <rt> copyleft </rt> <rp> ) </rp></ruby>项目中,不对称问题最为严重,即使出站许可协议是宽松的,它也存在。 在评估支持和反对 CLA 的论据时,请记住,今天与过去一样,任何产品中的绝大多数开源代码都源于遵循“入站=出站”实践的项目。相对较少数量的项目使用 CLA 会对所有其他项目造成附带损害,因为它表明,由于某些原因,开源许可协议不足以处理流入项目的贡献。 ### CLA 的案例 由于 CLA 仍然是少数人的做法,并且源自外部开源社区文化,我认为 CLA 的支持者应该解释清楚为什么它们相对于其成本是必要或有益的。我怀疑大多数使用 CLA 的公司只是在没有经过严格审查的情况下模仿同行公司的行为。肤浅的来说,对于那些倾向于采用更复杂的手续、纸张和流程而不管业务成本如何的风险规避律师而言,CLA 是正常的。尽管如此,一些支持 CLA 的论据往往是先进的,值得考虑。 **易于<ruby> 再许可 <rp> ( </rp> <rt> relicensing </rt> <rp> ) </rp></ruby>**:如果管理得当,Apache 风格的 CLA 可以根据管理员的选择,为其提供有效的无限权力来进行分许可。这种做法有时被认为是可取的,因为可能需要依据一些其他开源许可协议再许可该项目。但是,回顾一些涉及大量贡献者的项目(所有这些项目都是在没有使用 CLA 的情况下取得成功)的重要再许可活动的历史案例,易于再许可的价值被夸大了。再许可变得困难很有好处,因为它会让项目产生稳定的法律期望,并鼓励项目在进行重大法律政策变更之前咨询其贡献者社区。在任何情况下,大多数“入站=出站”开源项目在其生命周期中从不尝试再许可,而对于少数这样做的项目来说,再许可将相对轻松,因为通常需要去联系的过去的贡献者的数量不会很大。 **原创追踪**:有的人声称 CLA 使项目能够严格跟踪具有一定法律效益的贡献的来源。目前尚不清楚在这方面使用 CLA 所取得的成就是因为通过保留 Git 提交历史这样的非 CLA 手段无法更好地处理。DCO 似乎更适合跟踪贡献,因为它通常在每个提交的基础上使用,而 CLA 是每个贡献者签署一次,并且在行政上与代码贡献分开。此外,原创跟踪通常被描述为对公众有益,但我知道项目无法对 CLA 接受记录提供透明的随时可行的公开访问。 **许可撤销**:一些 CLA 支持者警告说可能有一天,贡献者可能会试图撤销过去授予的许可。如果关注的范围是大量没有供职公司的具有判断力的个人贡献者,则不清楚为什么 Apache 风格的 CLA 与使用开源许可协议相比提供了更有意义的保护。而且,正如在讨论开源法律政策时提出的许多法律风险一样,这似乎是一种幻想的风险。多年来,我只听说过少数声称的许可撤销尝试活动,所有这些都在贡献者面临社区压力而退步时得到迅速解决。 **未经授权的员工贡献**:这是许可撤销问题的一个特例,最近已成为 CLA 倡导者共同提出的观点。当员工为上游项目提供贡献时,通常雇主拥有项目给予许可的版权和专利,并且只有某些管理人员有权授予此类许可。假设一名员工在未经雇主批准的情况下向项目提供了专有代码,雇主后来发现这一点并要求删除该项贡献或起诉该项目的用户。通过使用类似 [Apache CCLA](https://www.apache.org/licenses/cla-corporate.txt) 及其陈述和签名要求的材料,加上一些适当的审查程序以确定 CCLA 签名者可能被授权签署(我怀疑大多数使用 CLA 的公司没有采取任何有意义的措施),可以将这种未经授权的贡献风险最小化。 基于常识和共同经验,我认为,在今天的几乎所有案例中,员工的贡献都是在雇主的实际或建设性知识基础上和同意下完成的。如果围绕开源软件存在高度诉讼风险,也许应该更加重视这种风险,但开源项目引发的诉讼仍然非常罕见。 更重要的是,我不知道任何针对“入站=出站”项目的非源自涉嫌开源许可协议违规的版权或专利侵权指控因使用CLA而被阻止的案例。特别是,当指出未经授权的贡献风险时,CLA 支持者经常引用专利风险,但 Apache 风格的 CLA 中的专利许可授权的设计范围非常狭窄。此外,企业对开源项目的贡献通常很少,规模较小(因此很容易更换),并且随着时间的推移可能会被丢弃。 ### 备选方案 如果您的公司没有对反 CLA 案例买账并且对简单使用“入站=出站”感到不舒服,那么还有其他方法可以替代非对称且管理上繁琐的 Apache 风格的 CLA 要求。使用 DCO 作为“入站=出站”的补充至少消除了厌恶风险的 CLA 倡导者的一些担忧。如果必须使用真正的 CLA,则无需使 用Apach e模式(更不用说它的[怪异衍生物](https://opensource.com/article/19/1/cla-proliferation))。考虑“[Eclipse 贡献者协议](https://www.eclipse.org/legal/ECA.php)”的非规范核心(基本上是包含在 CLA 内的 DCO),或者<ruby> 软件自由保护协会 <rp> ( </rp> <rt> Software Freedom Conservancy </rt> <rp> ) </rp></ruby>的 [Selenium CLA](https://docs.google.com/forms/d/e/1FAIpQLSd2FsN12NzjCs450ZmJzkJNulmRC8r8l8NYwVW5KWNX7XDiUw/viewform?hl=en_US&formkey=dFFjXzBzM1VwekFlOWFWMjFFRjJMRFE6MQ#gid=0),它仅仅是对“入站=出站”贡献策略进行仪式化。 --- 作者简介:Richard Fontana 是红帽公司法律部门产品和技术团队的高级商业顾问。 他的大部分工作都集中在开源相关的法律问题上。 译者简介:薛亮,集慧智佳知识产权咨询公司总监,擅长专利检索、专利分析、竞争对手跟踪、FTO 分析、开源软件知识产权风险分析,致力于为互联网企业、高科技公司提供知识产权咨询服务。 ![](/data/attachment/album/201905/10/091236hhxhrgpugrgapog2.jpg)
apt-clone:备份已安装的软件包并在新的 Ubuntu 系统上恢复它们
Magesh Maruthamuthu
https://www.2daygeek.com/apt-clone-backup-installed-packages-and-restore-them-on-fresh-ubuntu-system/
如果你需要在少量系统上安装相同的软件包时,apt-clone 会适合你。
/data/attachment/album/201905/10/094350w0av0z0vkzdvz30a.jpg.thumb.jpg
/data/attachment/album/201905/10/094350w0av0z0vkzdvz30a.jpg
true
false
true
lujun9972
geekpi
wxy
false
[ "apt" ]
技术
{ "viewnum": 11073, "commentnum": 0, "favtimes": 2, "sharetimes": 0, "likes": 0 }
[]
[]
如果你需要在少量系统上安装相同的软件包时,apt-clone 会适合你。
2019-05-10T09:43:59
2019-05-10T09:43:59
10,837
/article-10837-1.html
![](/data/attachment/album/201905/10/094350w0av0z0vkzdvz30a.jpg) 当我们在基于 Ubuntu/Debian 的系统上使用 `apt-clone`,包安装会变得更加容易。如果你需要在少量系统上安装相同的软件包时,`apt-clone` 会适合你。 如果你想在每个系统上手动构建和安装必要的软件包,这是一个耗时的过程。它可以通过多种方式实现,Linux 中有许多程序可用。我们过去曾写过一篇关于 [Aptik](https://www.2daygeek.com/aptik-backup-restore-ppas-installed-apps-users-data/) 的文章。它是能让 Ubuntu 用户备份和恢复系统设置和数据的程序之一。 ### 什么是 apt-clone? [apt-clone](https://github.com/mvo5/apt-clone) 能让你为 Debian/Ubuntu 系统创建所有已安装软件包的备份,这些软件包可以在新安装的系统(或容器)或目录中恢复。 该备份可以在相同操作系统版本和架构的多个系统上还原。 ### 如何安装 apt-clone? `apt-clone` 包可以在 Ubuntu/Debian 的官方仓库中找到,所以,使用 [apt 包管理器](https://www.2daygeek.com/apt-command-examples-manage-packages-debian-ubuntu-systems/) 或 [apt-get 包管理器](https://www.2daygeek.com/apt-get-apt-cache-command-examples-manage-packages-debian-ubuntu-systems/) 来安装它。 使用 `apt` 包管理器安装 `apt-clone`。 ``` $ sudo apt install apt-clone ``` 使用 `apt-get` 包管理器安装 `apt-clone`。 ``` $ sudo apt-get install apt-clone ``` ### 如何使用 apt-clone 备份已安装的软件包? 成功安装 `apt-clone` 之后。只需提供一个保存备份文件的位置。我们将在 `/backup` 目录下保存已安装的软件包备份。 `apt-clone` 会将已安装的软件包列表保存到 `apt-clone-state-Ubuntu18.2daygeek.com.tar.gz` 中。 ``` $ sudo apt-clone clone /backup ``` 我们同样可以通过运行 `ls` 命令来检查。 ``` $ ls -lh /backup/ total 32K -rw-r--r-- 1 root root 29K Apr 20 19:06 apt-clone-state-Ubuntu18.2daygeek.com.tar.gz ``` 运行以下命令,查看备份文件的详细信息。 ``` $ apt-clone info /backup/apt-clone-state-Ubuntu18.2daygeek.com.tar.gz Hostname: Ubuntu18.2daygeek.com Arch: amd64 Distro: bionic Meta: libunity-scopes-json-def-desktop, ubuntu-desktop Installed: 1792 pkgs (194 automatic) Date: Sat Apr 20 19:06:43 2019 ``` 根据上面的输出,备份文件中总共有 1792 个包。 ### 如何恢复使用 apt-clone 进行备份的软件包? 你可以使用任何远程复制程序来复制远程服务器上的文件。 ``` $ scp /backup/apt-clone-state-ubunt-18-04.tar.gz Destination-Server:/opt ``` 复制完成后,使用 `apt-clone` 执行还原。 使用以下命令进行还原。 ``` $ sudo apt-clone restore /opt/apt-clone-state-Ubuntu18.2daygeek.com.tar.gz ``` 请注意,还原将覆盖现有的 `/etc/apt/sources.list` 并安装/删除包。所以要小心。 如果你要将所有软件包还原到文件夹而不是实际还原,可以使用以下命令。 ``` $ sudo apt-clone restore /opt/apt-clone-state-Ubuntu18.2daygeek.com.tar.gz --destination /opt/oldubuntu ``` --- via: <https://www.2daygeek.com/apt-clone-backup-installed-packages-and-restore-them-on-fresh-ubuntu-system/> 作者:[Magesh Maruthamuthu](https://www.2daygeek.com/author/magesh/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
文章助手:让你的公众号文章链接可以点击
老王
经常看公众号文章的人都知道,一般而言,公众号内是无法放超链接的。这对于一般的文章来说其实不要紧,但是对于我们这种技术类的文章,往往会带有很多链接,而不能插入链接,会导致一篇文章的价值和可信性降低。
/data/attachment/album/201905/10/113354bbjgnubwurruj4eu.jpg.thumb.jpg
/data/attachment/album/201905/10/113354bbjgnubwurruj4eu.jpg
true
false
false
false
[ "小程序" ]
新闻
{ "viewnum": 9854, "commentnum": 1, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[ { "postip": "103.37.140.38", "message": "写了一个自动转换链接的插件,将 文章助手 作为默认的链接小程序了", "username": "来自亚太地区的 Chrome 76.0|Mac 10.12 用户", "date": "2019-09-05T19:03:45" } ]
[ { "raid": 10896, "displayorder": 0 }, { "raid": 11850, "displayorder": 0 } ]
经常看公众号文章的人都知道,一般而言,公众号内是无法放超链接的。这对于一般的文章来说其实不要紧,但是对于我们这种技术类的文章,往往会带有很多链接,而不能插入链接,会导致一篇文章的价值和可信性降低。
2019-05-10T11:34:00
2019-05-10T11:34:00
10,838
/article-10838-1.html
![](/data/attachment/album/201905/10/113354bbjgnubwurruj4eu.jpg) 经常看公众号文章的人都知道,一般而言,公众号内是无法放超链接的。这对于一般的文章来说其实不要紧,但是对于我们这种技术类的文章,往往会带有很多链接,而不能插入链接,会导致一篇文章的价值和可信性降低。 > > 备注: > > > 公众号文章可以放超链接的情况有几种: > > > 1. 认证的服务号可以放任意链接 > 2. 可以链接已经发送的任意公众号文章 > > > 针对这种情况,我们之前有过几种解决方案: 1. 将链接 URL 以文字的方式显示在文章中或文章底部。 2. 将链接转换成二维码,可以长按识别跳转。 3. 将文内的链接整理放到一个专门的 HTML 页面,通过“阅读原文”引导读者访问。 其中第 3 种解决方案是我们近几年一直采用的方式。不料,前一段时间,有个读者留言问,**链接怎么不能点?**而这个读者居然是从 2013 年就关注我们的读者,这让我很吃惊。这说明,一方面我们对读者的提示和帮助还不够;另外一方面,大部分读者还是习惯性的去点击链接(我们文章内的链接有易于识别的样式,一看就像是链接)。 思考之下,结合最近我们正在研究的小程序,我们提出了第 4 种解决方案:**用小程序来承载链接**。读者点击小程序后,小程序负责将该链接**复制到剪贴板**中,这样读者只需要打开手机浏览器,就可以手动粘贴该链接进行访问了(有的浏览器会自动询问是否访问剪贴板中的链接)。虽然,还需要打开浏览器一个步骤,但是这样感觉直接多了。 这个功能在我们的公众号和我们专用的小程序“Linux文章”上试验打磨之后,我们决定建立一个公用的小程序,将这个功能开放给大家使用。 ### 使用方法 1、在微信文章编辑器中,点击插入“小程序”,输入“文章助手”查找(使用这个小程序不需要公众号关联): ![选择小程序](/data/attachment/album/201905/10/105251ablfjemibbeegibf.jpg) 就是这个大眼睛,然后下一步: 2、这里输入路径“`/pages/a?link=链接地址&title=链接标题`”,请使用你的**链接**和**链接标题**分别替换路径参数: ![输入路径](/data/attachment/album/201905/10/105449s9kdkj9k5i8x28dj.jpg) 当然,展示方式你也可以不使用“文字”,选择图片也是可以的。 插入文字链接后效果如下: ![小程序链接效果](/data/attachment/album/201905/10/105814umyhj67jfxdy1jxw.jpg) ### 小程序效果 读者在看到你推送的公众号文章后,看到这种熟悉的链接样式,自然而然就知道可以点击了。点击后,会弹出如下小程序界面: ![小程序界面](/data/attachment/album/201905/10/110157fz00xxs22p5ip2p5.jpg) “文章助手”小程序会显示该链接,并自动复制到剪贴板。当你的剪贴板内有较多内容时,不会自动复制,以避免冲掉你的重要内容。这种情况下,可以点击一下链接框,手动复制即可。 然后就可以打开手机上的浏览器来浏览啦。 除此以外,点击小程序左上角的头像,读者还可以看到他查看过的所有链接。 ### 重要提醒 此小程序的使用永久免费,并且我们承诺永远不会主动停止服务,所以不用担心你文章内的链接将来不能使用。 再上面的链接页面内有个预留广告位,我们保留将来投放广告的可能性——但是将来万一(我说**万一**)真的要投放广告了,我们会给出几种方式,以使你免除被绑架的忧虑: * 接受公众号或读者的捐赠或付款而享受免投放广告服务 * 之前没有投放过广告的链接页面,我们保证不会出现广告(根据首次出现的时间线判定) 当然,如果你实在不相信我的人品,那么这个原理其实不复杂,你可以自己实现一个这样的小程序。 ###
每日安全资讯:三星多个项目代码泄露,包括 SmartThings 源代码和密钥
安华金和
研究员还提供了多张屏幕截图和视频作为证据。泄露的 GitLab 实例中还包括三星 SmartThings 的 iOS 和 Android 应用的私有证书。
/data/attachment/album/201905/10/115649gricfzw4cpbwii2b.jpg.thumb.jpg
/data/attachment/album/201905/10/115649gricfzw4cpbwii2b.jpg
true
false
false
false
[ "三星" ]
每日安全资讯
{ "viewnum": 3154, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
研究员还提供了多张屏幕截图和视频作为证据。泄露的 GitLab 实例中还包括三星 SmartThings 的 iOS 和 Android 应用的私有证书。
2019-05-10T11:57:00
2019-05-10T11:57:00
10,839
/article-10839-1.html
![](/data/attachment/album/201905/10/115649gricfzw4cpbwii2b.jpg) 美国科技媒体报道称,一名信息安全研究员近期发现,三星工程师使用的一个开发平台泄露了多个内部项目,包括三星 SmartThings 敏感的源代码、证书和密钥。三星数十个自主编码项目出现在旗下 Vandev Lab 的 GitLab 实例中。该实例被三星员工用于分享并贡献各种应用、服务和项目的代码。由于这些项目被设置为“公开”,同时没有受到密码的保护,因此任何人都可以查看项目,获取并下载源代码。 三星回应称,其中一些文件是用于测试的,但研究员对此提出质疑。他表示,在 GitLab 代码仓库中发现的源代码与 4 月 10 日 在 Google Play 上发布的 Android 应用包含的代码相同。这款应用随后又有过升级,到目前为止的安装量已经超过 1 亿多次。 研究员说:“我获得了一名用户的私有令牌,该用户可以完全访问 GitLab 上的所有 135 个项目。”因此,他可以使用该员工的帐号去修改代码。 研究员还提供了多张屏幕截图和视频作为证据。泄露的 GitLab 实例中还包括三星 SmartThings 的 iOS 和 Android 应用的私有证书。 来源:新浪科技 ### 更多资讯 ##### “手机墙”4个月“刷单”骗走1200余万元 - “流量造假”乱象何时休? 用 2000 部手机排成几面“手机墙”,每部手机同时操作自动下载 App、“刷”高注册量后骗取客户推广费……记者日前从北京市公安局海淀分局获悉,按照公安部“净网 2019”专项行动部署,北京警方在广东警方的配合下打掉一个利用计算机软件控制大量手机虚拟下载安装App产品骗取推广费的犯罪团伙,App刷量问题再度引发关注。 来源: 新华社 详情: <http://t.cn/EoEvZ2K> ##### 调查显示美国人对网络安全过于自信 一项来自 webroot 的新研究调查了 1 万名美国人(每个州 200 人)的网络安全习惯,发现 88% 的人认为他们采取了正确的措施来保护自己免受网络攻击。然而,只有 10% 的受访者在网络安全测试中得分达到 90% 或更高,平均只有 60%。 来源: cnBeta.COM 详情: <http://t.cn/EoEvLRj> ##### 曾被黑客攻入 亚马逊大量商户账户面临危险 最新文件显示,去年 11 月亚马逊要求英国某法院批准搜查巴克莱银行和万事达卡旗下 Prepa Technologies 的相关账户信息。亚马逊相信,自己正受到大规模欺诈攻击,身份不明的黑客去年六个月从英国亚马逊卖家账户窃取资金。 来源: 华尔街见闻 详情: <http://t.cn/EoEvfrx> (信息来源于网络,安华金和搜集整理)
用 OpenStack Designate 构建一个 DNS 即服务(DNSaaS)
Amjad Yaseen
https://opensource.com/article/19/4/getting-started-openstack-designate
学习如何安装和配置 Designate,这是一个 OpenStack 的多租户 DNS 即服务(DNSaaS)。
/data/attachment/album/201905/11/110822rjub9wtwtwtmccet.jpg.thumb.jpg
/data/attachment/album/201905/11/110822rjub9wtwtwtmccet.jpg
true
false
true
lujun9972
wxy
wxy
false
[ "DNS", "OpenStack" ]
系统运维
{ "viewnum": 6793, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
学习如何安装和配置 Designate,这是一个 OpenStack 的多租户 DNS 即服务(DNSaaS)。
2019-05-11T11:09:00
2019-05-11T11:09:00
10,840
/article-10840-1.html
> > 学习如何安装和配置 Designate,这是一个 OpenStack 的多租户 DNS 即服务(DNSaaS)。 > > > ![](/data/attachment/album/201905/11/110822rjub9wtwtwtmccet.jpg) [Designate](https://docs.openstack.org/designate/latest/) 是一个多租户的 DNS 即服务,它包括一个用于域名和记录管理的 REST API 和集成了 [Neutron](https://opensource.com/article/19/3/openstack-neutron) 的框架,并支持 Bind9。 DNSaaS 可以提供: * 一个管理区域和记录的干净利落的 REST API * 自动生成记录(集成 OpenStack) * 支持多个授权名字服务器 * 可以托管多个项目/组织 ![Designate's architecture](/data/attachment/album/201905/11/110945ruqt808b9bkk9tsu.png "Designate's architecture") 这篇文章解释了如何在 CentOS 和 RHEL 上手动安装和配置 Designate 的最新版本,但是同样的配置也可以用在其它发行版上。 ### 在 OpenStack 上安装 Designate 在我的 [GitHub 仓库](https://github.com/ayaseen/designate)里,我已经放了 Ansible 的 bind 和 Designate 角色的示范设置。 这个设置假定 bing 服务是安装 OpenStack 控制器节点之外(即使你可以在本地安装 bind)。 1、在 OpenStack 控制节点上安装 Designate 和 bind 软件包: ``` # yum install openstack-designate-* bind bind-utils -y ``` 2、创建 Designate 数据库和用户: ``` MariaDB [(none)]> CREATE DATABASE designate CHARACTER SET utf8 COLLATE utf8_general_ci; MariaDB [(none)]> GRANT ALL PRIVILEGES ON designate.* TO \ 'designate'@'localhost' IDENTIFIED BY 'rhlab123'; MariaDB [(none)]> GRANT ALL PRIVILEGES ON designate.* TO 'designate'@'%' \ IDENTIFIED BY 'rhlab123'; ``` 注意:bind 包必须安装在控制节点之外才能使<ruby> 远程名字服务控制 <rt> Remote Name Daemon Control </rt></ruby>(RNDC)功能正常。 ### 配置 bind(DNS 服务器) 1、生成 RNDC 文件: ``` rndc-confgen -a -k designate -c /etc/rndc.key -r /dev/urandom cat <<EOF> etcrndc.conf include "/etc/rndc.key"; options { default-key "designate"; default-server {{ DNS_SERVER_IP }}; default-port 953; }; EOF ``` 2、将下列配置添加到 `named.conf`: ``` include "/etc/rndc.key"; controls { inet {{ DNS_SERVER_IP }} allow { localhost;{{ CONTROLLER_SERVER_IP }}; } keys { "designate"; }; }; ``` 在 `option` 节中,添加: ``` options { ... allow-new-zones yes; request-ixfr no; listen-on port 53 { any; }; recursion no; allow-query { 127.0.0.1; {{ CONTROLLER_SERVER_IP }}; }; }; ``` 添加正确的权限: ``` chown named:named /etc/rndc.key chown named:named /etc/rndc.conf chmod 600 /etc/rndc.key chown -v root:named /etc/named.conf chmod g+w /var/named # systemctl restart named # setsebool named_write_master_zones 1 ``` 3、把 `rndc.key` 和 `rndc.conf` 推入 OpenStack 控制节点: ``` # scp -r /etc/rndc* {{ CONTROLLER_SERVER_IP }}:/etc/ ``` ### 创建 OpenStack Designate 服务和端点 输入: ``` # openstack user create --domain default --password-prompt designate # openstack role add --project services --user designate admin # openstack service create --name designate --description "DNS" dns # openstack endpoint create --region RegionOne dns public http://{{ CONTROLLER_SERVER_IP }}:9001/ # openstack endpoint create --region RegionOne dns internal http://{{ CONTROLLER_SERVER_IP }}:9001/ # openstack endpoint create --region RegionOne dns admin http://{{ CONTROLLER_SERVER_IP }}:9001/ ``` ### 配置 Designate 服务 1、编辑 `/etc/designate/designate.conf`: 在 `[service:api]` 节配置 `auth_strategy`: ``` [service:api] listen = 0.0.0.0:9001 auth_strategy = keystone api_base_uri = http://{{ CONTROLLER_SERVER_IP }}:9001/ enable_api_v2 = True enabled_extensions_v2 = quotas, reports ``` 在 `[keystone_authtoken]` 节配置下列选项: ``` [keystone_authtoken] auth_type = password username = designate password = rhlab123 project_name = service project_domain_name = Default user_domain_name = Default www_authenticate_uri = http://{{ CONTROLLER_SERVER_IP }}:5000/ auth_url = http://{{ CONTROLLER_SERVER_IP }}:5000/ ``` 在 `[service:worker]` 节,启用 worker 模型: ``` enabled = True notify = True ``` 在 `[storage:sqlalchemy]` 节,配置数据库访问: ``` [storage:sqlalchemy] connection = mysql+pymysql://designate:rhlab123@{{ CONTROLLER_SERVER_IP }}/designate ``` 填充 Designate 数据库: ``` # su -s /bin/sh -c "designate-manage database sync" designate ``` 2、 创建 Designate 的 `pools.yaml` 文件(包含 target 和 bind 细节): 编辑 `/etc/designate/pools.yaml`: ``` - name: default # The name is immutable. There will be no option to change the name after # creation and the only way will to change it will be to delete it # (and all zones associated with it) and recreate it. description: Default Pool attributes: {} # List out the NS records for zones hosted within this pool # This should be a record that is created outside of designate, that # points to the public IP of the controller node. ns_records: - hostname: {{Controller_FQDN}}. # Thisis mDNS priority: 1 # List out the nameservers for this pool. These are the actual BIND servers. # We use these to verify changes have propagated to all nameservers. nameservers: - host: {{ DNS_SERVER_IP }} port: 53 # List out the targets for this pool. For BIND there will be one # entry for each BIND server, as we have to run rndc command on each server targets: - type: bind9 description: BIND9 Server 1 # List out the designate-mdns servers from which BIND servers should # request zone transfers (AXFRs) from. # This should be the IP of the controller node. # If you have multiple controllers you can add multiple masters # by running designate-mdns on them, and adding them here. masters: - host: {{ CONTROLLER_SERVER_IP }} port: 5354 # BIND Configuration options options: host: {{ DNS_SERVER_IP }} port: 53 rndc_host: {{ DNS_SERVER_IP }} rndc_port: 953 rndc_key_file: /etc/rndc.key rndc_config_file: /etc/rndc.conf ``` 填充 Designate 池: ``` su -s /bin/sh -c "designate-manage pool update" designate ``` 3、启动 Designate 中心和 API 服务: ``` systemctl enable --now designate-central designate-api ``` 4、验证 Designate 服务运行: ``` # openstack dns service list +--------------+--------+-------+--------------+ | service_name | status | stats | capabilities | +--------------+--------+-------+--------------+ | central | UP | - | - | | api | UP | - | - | | mdns | UP | - | - | | worker | UP | - | - | | producer | UP | - | - | +--------------+--------+-------+--------------+ ``` ### 用外部 DNS 配置 OpenStack Neutron 1、为 Designate 服务配置 iptables: ``` # iptables -I INPUT -p tcp -m multiport --dports 9001 -m comment --comment "designate incoming" -j ACCEPT # iptables -I INPUT -p tcp -m multiport --dports 5354 -m comment --comment "Designate mdns incoming" -j ACCEPT # iptables -I INPUT -p tcp -m multiport --dports 53 -m comment --comment "bind incoming" -j ACCEPT # iptables -I INPUT -p udp -m multiport --dports 53 -m comment --comment "bind/powerdns incoming" -j ACCEPT # iptables -I INPUT -p tcp -m multiport --dports 953 -m comment --comment "rndc incoming - bind only" -j ACCEPT # service iptables save; service iptables restart # setsebool named_write_master_zones 1 ``` 2、 编辑 `/etc/neutron/neutron.conf` 的 `[default]` 节: ``` external_dns_driver = designate ``` 3、 在 `/etc/neutron/neutron.conf` 中添加 `[designate]` 节: ``` [designate] url = http://{{ CONTROLLER_SERVER_IP }}:9001/v2 ## This end point of designate auth_type = password auth_url = http://{{ CONTROLLER_SERVER_IP }}:5000 username = designate password = rhlab123 project_name = services project_domain_name = Default user_domain_name = Default allow_reverse_dns_lookup = True ipv4_ptr_zone_prefix_size = 24 ipv6_ptr_zone_prefix_size = 116 ``` 4、编辑 `neutron.conf` 的 `dns_domain`: ``` dns_domain = rhlab.dev. ``` 重启: ``` # systemctl restart neutron-* ``` 5、在 `/etc/neutron/plugins/ml2/ml2_conf.ini` 中的组成层 2(ML2)中添加 `dns`: ``` extension_drivers=port_security,qos,dns ``` 6、在 Designate 中添加区域: ``` # openstack zone create –email=admin@rhlab.dev rhlab.dev. ``` 在 `rhlab.dev` 区域中添加记录: ``` # openstack recordset create --record '192.168.1.230' --type A rhlab.dev. Test ``` Designate 现在就安装和配置好了。 --- via: <https://opensource.com/article/19/4/getting-started-openstack-designate> 作者:[Amjad Yaseen](https://opensource.com/users/ayaseen) 选题:[lujun9972](https://github.com/lujun9972) 译者:[wxy](https://github.com/wxy) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
2 个给使用 Fedora 工作站的音乐爱好者的新应用
Justin W. Flory
https://fedoramagazine.org/2-new-apps-for-music-tweakers-on-fedora-workstation/
Linux 操作系统非常适合进行独特的自定义和调整,以使你的计算机更好地为你工作。
/data/attachment/album/201905/11/132115tu5nxgpoo11pn6np.jpg.thumb.jpg
/data/attachment/album/201905/11/132115tu5nxgpoo11pn6np.jpg
true
false
true
lujun9972
wxy
wxy
false
[ "音乐", "播放器" ]
分享
{ "viewnum": 4869, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
Linux 操作系统非常适合进行独特的自定义和调整,以使你的计算机更好地为你工作。
2019-05-11T13:21:12
2019-05-11T13:21:12
10,841
/article-10841-1.html
![](/data/attachment/album/201905/11/132115tu5nxgpoo11pn6np.jpg) Linux 操作系统非常适合进行独特的自定义和调整,以使你的计算机更好地为你工作。例如,[i3 窗口管理器](https://fedoramagazine.org/getting-started-i3-window-manager/) 就让用户认识到了构成现代 Linux 桌面的各种组件和部分。 Fedora 上有两个音乐爱好者会感兴趣的新软件包:mpris-scrobbler 和 playerctl。mpris-scrobbler 可以在 Last.fm 和/或 ListenBrainz 等音乐跟踪服务上[跟踪你的音乐收听历史](https://github.com/mariusor/mpris-scrobbler)。 playerctl 是一个命令行的[音乐播放器的控制器](https://github.com/acrisci/playerctl)。 ### mpris-scrobbler:记录你的音乐收听趋势 mpris-scrobbler 是一个命令行应用程序,用于将音乐的播放历史记录提交给 [Last.fm](https://www.last.fm/)、[Libre.fm](https://libre.fm/) 或 [ListenBrainz](https://listenbrainz.org/) 等服务。它监听 [MPRIS D-Bus 接口](https://specifications.freedesktop.org/mpris-spec/latest/) 以检测正在播放的内容。它可以连接几个不同的音乐客户端,如 spotify 客户端、[vlc](https://www.videolan.org/vlc/)、audacious、bmp、[cmus](https://cmus.github.io/) 等。 ![Last.fm last week in music report. Generated from user-submitted listening history.](/data/attachment/album/201905/11/132117ivzs7j7jbwwsdvb4.png) #### 安装和配置 mpris-scrobbler mpris-scrobbler 在 Fedora 28 或更高版本以及 EPEL 7 存储库中可用。在终端中运行以下命令进行安装: ``` sudo dnf install mpris-scrobbler ``` 安装完成后,使用 `systemctl` 启动并启用该服务。以下命令启动 mpris-scrobbler 并始终在系统重启后启动它: ``` systemctl --user enable --now mpris-scrobbler.service ``` #### 提交播放信息给 ListenBrainz 这里将介绍如何将 mpris-scrobbler 与 ListenBrainz 帐户相关联。要使用 Last.fm 或 Libre.fm,请参阅其[上游文档](https://github.com/mariusor/mpris-scrobbler#authenticate-to-the-service)。 要将播放信息提交到 ListenBrainz 服务器,你需要有一个 ListenBrainz API 令牌。如果你有帐户,请从[个人资料设置页面](https://listenbrainz.org/profile/)中获取该令牌。如果有了令牌,请运行此命令以使用 ListenBrainz API 令牌进行身份验证: ``` $ mpris-scrobbler-signon token listenbrainz Token for listenbrainz.org: ``` 最后,通过在 Fedora 上用你的音乐客户端播放一首歌来测试它。你播放的歌曲会出现在 ListenBrainz 个人资料页中。 ![Basic statistics and play history from a user profile on ListenBrainz. The current track is playing on a Fedora Workstation laptop with mpris-scrobbler.](/data/attachment/album/201905/11/132118lwrrmitilwko2odk.png) ### playerctl 可以控制音乐回放 `playerctl` 是一个命令行工具,它可以控制任何实现了 MPRIS D-Bus 接口的音乐播放器。你可以轻松地将其绑定到键盘快捷键或媒体热键上。以下是如何在命令行中安装、使用它,以及为 i3 窗口管理器创建键绑定的方法。 #### 安装和使用 playerctl `playerctl` 在 Fedora 28 或更高版本中可用。在终端运行如下命令以安装: ``` sudo dnf install playerctl ``` 现在已安装好,你可以立即使用它。在 Fedora 上打开你的音乐播放器。接下来,尝试用以下命令来控制终端的播放。 播放或暂停当前播放的曲目: ``` playerctl play-pause ``` 如果你想跳过下一首曲目: ``` playerctl next ``` 列出所有正在运行的播放器: ``` playerctl -l ``` 仅使用 spotify 客户端播放或暂停当前播放的内容: ``` playerctl -p spotify play-pause ``` #### 在 i3wm 中创建 playerctl 键绑定 你是否使用窗口管理器,比如 [i3 窗口管理器](https://fedoramagazine.org/getting-started-i3-window-manager/)?尝试使用 `playerctl` 进行键绑定。你可以将不同的命令绑定到不同的快捷键,例如键盘上的播放/暂停按钮。参照下面的 [i3wm 配置摘录](https://github.com/jwflory/swiss-army/blob/ba6ac0c71855e33e3caa1ee1fe51c05d2df0529d/roles/apps/i3wm/files/config#L207-L210) 看看如何做: ``` # Media player controls bindsym XF86AudioPlay exec "playerctl play-pause" bindsym XF86AudioNext exec "playerctl next" bindsym XF86AudioPrev exec "playerctl previous" ``` ### 体验一下音乐播放器 想了解关于在 Fedora 上定制音乐聆听体验的更多信息吗?Fedora Magazine 为你提供服务。看看 Fedora 上这[五个很酷的音乐播放器](https://fedoramagazine.org/5-cool-music-player-apps/)。 也可以通过使用 MusicBrainz Picard 对音乐库进行排序和组织,[为你的混乱的音乐库带来秩序](https://fedoramagazine.org/picard-brings-order-music-library/)。 --- via: <https://fedoramagazine.org/2-new-apps-for-music-tweakers-on-fedora-workstation/> 作者:[Justin W. Flory](https://fedoramagazine.org/author/jflory7/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[wxy](https://github.com/wxy) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
每日安全资讯:Mozilla 为 Firefox 上周的 bug 致歉
安华金和
现在,我们已经知道附加组件遇到的故障,源自安全证书方面的 bug 。
/data/attachment/album/201905/11/134022kzxaxolsy6xx3iyw.jpg.thumb.jpg
/data/attachment/album/201905/11/134022kzxaxolsy6xx3iyw.jpg
true
false
false
false
[ "Firefox" ]
每日安全资讯
{ "viewnum": 3579, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
现在,我们已经知道附加组件遇到的故障,源自安全证书方面的 bug 。
2019-05-11T13:40:57
2019-05-11T13:40:57
10,842
/article-10842-1.html
![](/data/attachment/album/201905/11/134022kzxaxolsy6xx3iyw.jpg) 由于 Mozilla 方面的一个失误,导致许多 Firefox 用户在上周末遇到了附加组件无法使用的 bug 。后来该公司发布了更新,才让浏览器恢复正常。对于此事,这家机构现已发表正式道歉,详细解释发生了怎样的事情,且承诺会删除期间为了推出修复程序而收集的私人数据。据悉,为了修复 bug,Firefox 初期希望用户启用遥测选项。因为在默认的情况下,其出于隐私考量而禁用了此类数据收集选项。 现在,我们已经知道附加组件遇到的故障,源自安全证书方面的 bug 。在 Mozilla Hacks 的一篇博客文章中,首席技术官 Eric Rescorla 已经给出了详细的解释。 Joe Hidebrand 在另一篇文章中写到: > > 我们在努力为 Firefox 带来极棒的体验,但可惜上周遭遇了失败,对此我们深表歉意。 > > > 过去几年,我们花费了很多时间,来思考如何将附加组件(Add-ons)变得更加安全。然而鉴于附加组件的功能是如此的强大,我们也必须努力构建和部署一套系统,以免用户遭受恶意附加组件的侵扰。 > > > 至于上周的问题,其实源自防护系统中的一项错误部署—— 保险模式导致附加组件被禁用了。 > > > 尽管我们认为这套机制的基本设计原则是合理的,但仍会努力改进该系统,以防将来再次发生类似的问题。 > > > 此外,Hildebrand 还向关注 Firefox 最初“紧急修复”时段收集私人数据一事的网友们保证: > > 为尽快解决这个问题,我们曾呼吁用户开启遥测选项,以获取附加信息。 > > > 不过在 5 月 8 日 23:28 分的 Firefox 附加组件博客上,我们宣布已经不再需要开启遥测选项,所以请大家根据自己的真实意愿来选择是否退出。 > > > 为尽可能地尊重用户,Mozilla 决定删除 5 月 4 日 11:00 到 5 月 11 日 11:00 期间手机的所有用户的遥测与研究数据。 最后,Mozilla 表示将会披露与本次事件有关的更多细节,感兴趣的朋友可以留意后续发布的报告。 ### 更多资讯 ##### 涉及 2.75 亿条印度公民信息的 MongoDB 数据库被曝光和公开索引 援引外媒Security Discovery报道,他们于5月1日发现了一个未经保护和公开索引的MongoDB数据库,其中包括了涉及印度公民的个人身份信息的275,265,298条记录。这些信息中包括姓名、电子邮件地址、性别、教育水平和专业领域、专业技能和职称、手机号码、就业经历和当前雇主、出生日期以及当前的薪资水平。 来源: cnBeta.COM 详情: <http://www.dbsec.cn/zx/20190511-5.html> ##### 研究人员披露黑客入侵了三家美国杀毒软件公司 Advanced Intelligence (AdvIntel) 公司的研究人员透露,名叫 Fxmsp 的组织正在积极销售三家美国杀毒软件公司的源代码和网络访问。它提供了样本作为证据证明其声明是有效的。AdvIntel 的研究总监 Yelisey Boguslavskiy 称他们已经通知了相关公司和美国执法机构。在安全社区 Fxmsp 已经是名声在外,该组织在今年三月透露它能提供美国三家顶级杀毒软件公司的独有信息。它在地下黑客市场销售这些公司软件开发的源代码和网络访问,开价超过 30 万美元。 来源: solidot.org 详情: <http://www.dbsec.cn/zx/20190511-3.html> ##### 恶意差评案件多发 侵蚀网络营商环境亟待立法规制 传统的网络评价机制亟待改进,以优化网络营商环境。近日在杭州互联网法院落槌的一起民事案件,将这一问题再次提上议事日程。在这起案件中,7 名 90 后组成的差评师团伙被判决赔偿阿里经济损失 8 万余元、合理支出 4 万余元。而这已经是他们因同一件事情所受到的第二次惩罚。 此前,深圳市龙华区法院以敲诈勒索罪对他们分别判处 7 个月至 2 年不等的刑期。这意味着因为恶意差评,这一团伙遭到刑事民事的“双杀”。 来源: 法制日报 详情: <http://www.dbsec.cn/zx/20190511-2.html> ##### 美国巴尔的摩市政网络遭勒索软件攻击 美国巴尔的摩市政网络 5 月 7 日遭勒索软件攻击后下线。攻击没有影响警察、消防和紧急反应系统,但市政府的其它部门都在某种程度上受到冲击。市政府的首席信息官 Frank Johnson 在新闻发布会上证实,攻击他们的勒索软件是 RobbinHood。 逆向工程 RobbinHood 样本的安全研究人员 Vitali Kremez 称,恶意程序在一个系统只针对文件,不会通过网络共享传播。这意味着恶意程序是逐个的部署到机器上的,攻击者需要在部署前已经获得了网络的管理级别的访问权限。 市长 Bernard “Jack” Young 表示, IT 部门有备份,但无法简单的替换备份。他说他不希望人们认为他们没有备份。 来源:solidot.org 详情: <http://www.dbsec.cn/zx/20190511-1.html>
Anbox:在 Linux 上运行 Android 应用程序的简单方式
Magesh Maruthamuthu
https://www.2daygeek.com/anbox-best-android-emulator-for-linux/
Android 模拟器允许我们直接从 Linux 系统上运行我们最喜欢的 Android 应用程序或游戏。
/data/attachment/album/201905/12/101000hjzy2gyjwkx05jdg.jpg.thumb.jpg
/data/attachment/album/201905/12/101000hjzy2gyjwkx05jdg.jpg
true
false
true
lujun9972
robsean
wxy
false
[ "Android", "Anbox" ]
桌面应用
{ "viewnum": 58051, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
Android 模拟器允许我们直接从 Linux 系统上运行我们最喜欢的 Android 应用程序或游戏。
2019-05-12T10:10:10
2019-05-12T10:10:10
10,843
/article-10843-1.html
![](/data/attachment/album/201905/12/101000hjzy2gyjwkx05jdg.jpg) Android 模拟器允许我们直接从 Linux 系统上运行我们最喜欢的 Android 应用程序或游戏。对于 Linux 来说,有很多的这样的 Android 模拟器,在过去我们介绍过几个此类应用程序。 你可以通过导航到下面的网址回顾它们。 * [如何在 Linux 上安装官方 Android 模拟器 (SDK)](https://www.2daygeek.com/install-configure-sdk-android-emulator-on-linux/) * [如何在 Linux 上安装 GenyMotion (Android 模拟器)](https://www.2daygeek.com/install-genymotion-android-emulator-on-ubuntu-debian-fedora-arch-linux/) 今天我们将讨论 Anbox Android 模拟器。 ### Anbox 是什么? Anbox 是 “Android in a box” 的缩写。Anbox 是一个基于容器的方法,可以在普通的 GNU/Linux 系统上启动完整的 Android 系统。 它是现代化的新模拟器之一。 Anbox 可以让你在 Linux 系统上运行 Android,而没有虚拟化的迟钝,因为核心的 Android 操作系统已经使用 Linux 命名空间(LXE)放置到容器中了。 Android 容器不能直接访问到任何硬件,所有硬件的访问都是通过在主机上的守护进程进行的。 每个应用程序将在一个单独窗口打开,就像其它本地系统应用程序一样,并且它可以显示在启动器中。 ### 如何在 Linux 中安装 Anbox ? Anbox 也可作为 snap 软件包安装,请确保你已经在你的系统上启用了 snap 支持。 Anbox 软件包最近被添加到 Ubuntu 18.10 (Cosmic) 和 Debian 10 (Buster) 软件仓库。如果你正在运行这些版本,那么你可以轻松地在官方发行版的软件包管理器的帮助下安装。否则可以用 snap 软件包安装。 为使 Anbox 工作,确保需要的内核模块已经安装在你的系统中。对于基于 Ubuntu 的用户,使用下面的 PPA 来安装它。 ``` $ sudo add-apt-repository ppa:morphis/anbox-support $ sudo apt update $ sudo apt install linux-headers-generic anbox-modules-dkms ``` 在你安装 `anbox-modules-dkms` 软件包后,你必须手动重新加载内核模块,或需要系统重新启动。 ``` $ sudo modprobe ashmem_linux $ sudo modprobe binder_linux ``` 对于 Debian/Ubuntu 系统,使用 [APT-GET 命令](https://www.2daygeek.com/apt-get-apt-cache-command-examples-manage-packages-debian-ubuntu-systems/) 或 [APT 命令](https://www.2daygeek.com/apt-command-examples-manage-packages-debian-ubuntu-systems/) 来安装 anbox。 ``` $ sudo apt install anbox ``` 对于基于 Arch Linux 的系统,我们总是习惯从 AUR 储存库中获取软件包。所以,使用任一个的 [AUR 助手](https://www.2daygeek.com/category/aur-helper/) 来安装它。我喜欢使用 [Yay 工具](https://www.2daygeek.com/install-yay-yet-another-yogurt-aur-helper-on-arch-linux/)。 ``` $ yuk -S anbox-git ``` 否则,你可以通过导航到下面的文章来 [在 Linux 中安装和配置 snap](https://www.2daygeek.com/linux-snap-package-manager-ubuntu/)。如果你已经在你的系统上安装 snap,其它的步骤可以忽略。 ``` $ sudo snap install --devmode --beta anbox ``` ### Anbox 的必要条件 默认情况下,Anbox 并没有带有 Google Play Store。因此,我们需要手动下载每个应用程序(APK),并使用 Android 调试桥(ADB)安装它。 ADB 工具在大多数的发行版的软件仓库是轻易可获得的,我们可以容易地安装它。 对于 Debian/Ubuntu 系统,使用 [APT-GET 命令](https://www.2daygeek.com/apt-get-apt-cache-command-examples-manage-packages-debian-ubuntu-systems/) 或 [APT 命令](https://www.2daygeek.com/apt-command-examples-manage-packages-debian-ubuntu-systems/) 来安装 ADB。 ``` $ sudo apt install android-tools-adb ``` 对于 Fedora 系统,使用 [DNF 命令](https://www.2daygeek.com/dnf-command-examples-manage-packages-fedora-system/) 来安装 ADB。 ``` $ sudo dnf install android-tools ``` 对于基于 Arch Linux 的系统,使用 [Pacman 命令](https://www.2daygeek.com/pacman-command-examples-manage-packages-arch-linux-system/) 来安装 ADB。 ``` $ sudo pacman -S android-tools ``` 对于 openSUSE Leap 系统,使用 [Zypper 命令](https://www.2daygeek.com/zypper-command-examples-manage-packages-opensuse-system/) 来安装 ADB。 ``` $ sudo zypper install android-tools ``` ### 在哪里下载 Android 应用程序? 既然我们不能使用 Play Store ,你就得从信得过的网站来下载 APK 软件包,像 [APKMirror](https://www.apkmirror.com/) ,然后手动安装它。 ### 如何启动 Anbox? Anbox 可以从 Dash 启动。这是默认的 Anbox 外貌。 ![](/data/attachment/album/201905/12/101013pxvqb175e14gtrxy.jpg) ### 如何把应用程序推到 Anbox ? 像我先前所说,我们需要手动安装它。为测试目的,我们将安装 YouTube 和 Firefox 应用程序。 首先,你需要启动 ADB 服务。为做到这样,运行下面的命令。 ``` $ adb devices ``` 我们已经下载 YouTube 和 Firefox 应用程序,现在我们将安装。 语法格式: ``` $ adb install Name-Of-Your-Application.apk ``` 安装 YouTube 和 Firefox 应用程序: ``` $ adb install 'com.google.android.youtube_14.13.54-1413542800_minAPI19(x86_64)(nodpi)_apkmirror.com.apk' Success $ adb install 'org.mozilla.focus_9.0-330191219_minAPI21(x86)(nodpi)_apkmirror.com.apk' Success ``` 我已经在我的 Anbox 中安装 YouTube 和 Firefox。查看下面的截图。 ![](/data/attachment/album/201905/12/101014ovzo0qxvvpe8ve1v.jpg) 像我们在文章的开始所说,它将以新的标签页打开任何的应用程序。在这里,我们将打开 Firefox ,并访问 [2daygeek.com](https://www.2daygeek.com/) 网站。 ![](/data/attachment/album/201905/12/101016n6uw5gd0q2h6iz02.jpg) --- via: <https://www.2daygeek.com/anbox-best-android-emulator-for-linux/> 作者:[Magesh Maruthamuthu](https://www.2daygeek.com/author/magesh/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[robsean](https://github.com/robsean) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
Linux 中如何启用和禁用网卡?
Magesh Maruthamuthu
https://www.2daygeek.com/enable-disable-up-down-nic-network-interface-port-linux-using-ifconfig-ifdown-ifup-ip-nmcli-nmtui/
启用、禁用网卡有很多种方法。在这篇文章里,我们会介绍我们使用过的最好的 5 种方法。
/data/attachment/album/201905/12/112536skthtzqbtt03co3d.jpg.thumb.jpg
/data/attachment/album/201905/12/112536skthtzqbtt03co3d.jpg
true
false
true
lujun9972
bodhix
wxy
false
[ "网卡" ]
系统运维
{ "viewnum": 46259, "commentnum": 1, "favtimes": 2, "sharetimes": 0, "likes": 0 }
[ { "postip": "106.120.127.5", "message": "ifdown/up 是可以支持以 enpXXX 命名的新的网络设备,", "username": "来自北京的 Chrome 63.0|Windows 10 用户", "date": "2021-09-13T11:11:40" } ]
[]
启用、禁用网卡有很多种方法。在这篇文章里,我们会介绍我们使用过的最好的 5 种方法。
2019-05-12T11:25:47
2019-05-12T11:25:47
10,844
/article-10844-1.html
![](/data/attachment/album/201905/12/112536skthtzqbtt03co3d.jpg) 你可能会根据你的需要执行以下命令。我会在这里列举一些你会用到这些命令的例子。 当你添加一个网卡或者从一个物理网卡创建出一个虚拟网卡的时候,你可能需要使用这些命令将新网卡启用起来。另外,如果你对网卡做了某些修改或者网卡本身没有启用,那么你也需要使用以下的某个命令将网卡启用起来。 启用、禁用网卡有很多种方法。在这篇文章里,我们会介绍我们使用过的最好的 5 种方法。 启用禁用网卡可以使用以下 5 个方法来完成: * `ifconfig` 命令:用于配置网卡。它可以提供网卡的很多信息。 * `ifdown/up` 命令:`ifdown` 命令用于禁用网卡,`ifup` 命令用于启用网卡。 * `ip` 命令:用于管理网卡,用于替代老旧的、不推荐使用的 `ifconfig` 命令。它和 `ifconfig` 命令很相似,但是提供了很多 `ifconfig` 命令所不具有的强大的特性。 * `nmcli` 命令:是一个控制 NetworkManager 并报告网络状态的命令行工具。 * `nmtui` 命令:是一个与 NetworkManager 交互的、基于 curses 图形库的终端 UI 应用。 以下显示的是我的 Linux 系统中可用网卡的信息。 ``` # ip a 1: lo: mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo valid_lft forever preferred_lft forever inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: enp0s3: mtu 1500 qdisc fq_codel state UP group default qlen 1000 link/ether 08:00:27:c2:e4:e8 brd ff:ff:ff:ff:ff:ff inet 192.168.1.4/24 brd 192.168.1.255 scope global dynamic noprefixroute enp0s3 valid_lft 86049sec preferred_lft 86049sec inet6 fe80::3899:270f:ae38:b433/64 scope link noprefixroute valid_lft forever preferred_lft forever 3: enp0s8: mtu 1500 qdisc fq_codel state UP group default qlen 1000 link/ether 08:00:27:30:5d:52 brd ff:ff:ff:ff:ff:ff inet 192.168.1.3/24 brd 192.168.1.255 scope global dynamic noprefixroute enp0s8 valid_lft 86049sec preferred_lft 86049sec inet6 fe80::32b7:8727:bdf2:2f3/64 scope link noprefixroute valid_lft forever preferred_lft forever ``` ### 1、如何使用 ifconfig 命令启用禁用网卡? `ifconfig` 命令用于配置网卡。 在系统启动过程中如果需要启用网卡,调用的命令就是 `ifconfig`。`ifconfig` 可以提供很多网卡的信息。不管我们想修改网卡的什么配置,都可以使用该命令。 `ifconfig` 的常用语法: ``` # ifconfig [NIC_NAME] Down/Up ``` 执行以下命令禁用 `enp0s3` 网卡。注意,这里你需要输入你自己的网卡名字。 ``` # ifconfig enp0s3 down ``` 从以下输出结果可以看到网卡已经被禁用了。 ``` # ip a | grep -A 1 "enp0s3:" 2: enp0s3: mtu 1500 qdisc fq_codel state DOWN group default qlen 1000 link/ether 08:00:27:c2:e4:e8 brd ff:ff:ff:ff:ff:ff ``` 执行以下命令启用 `enp0s3` 网卡。 ``` # ifconfig enp0s3 up ``` 从以下输出结果可以看到网卡已经启用了。 ``` # ip a | grep -A 5 "enp0s3:" 2: enp0s3: mtu 1500 qdisc fq_codel state UP group default qlen 1000 link/ether 08:00:27:c2:e4:e8 brd ff:ff:ff:ff:ff:ff inet 192.168.1.4/24 brd 192.168.1.255 scope global dynamic noprefixroute enp0s3 valid_lft 86294sec preferred_lft 86294sec inet6 fe80::3899:270f:ae38:b433/64 scope link noprefixroute valid_lft forever preferred_lft forever ``` ### 2、如何使用 ifdown/up 命令启用禁用网卡? `ifdown` 命令用于禁用网卡,`ifup` 命令用于启用网卡。 注意:这两个命令不支持以 `enpXXX` 命名的新的网络设备。 `ifdown`/`ifup` 的常用语法: ``` # ifdown [NIC_NAME] # ifup [NIC_NAME] ``` 执行以下命令禁用 `eth1` 网卡。 ``` # ifdown eth1 ``` 从以下输出结果可以看到网卡已经被禁用了。 ``` # ip a | grep -A 3 "eth1:" 3: eth1: mtu 1500 qdisc pfifo_fast state DOWN qlen 1000 link/ether 08:00:27:d5:a0:18 brd ff:ff:ff:ff:ff:ff ``` 执行以下命令启用 `eth1` 网卡。 ``` # ifup eth1 ``` 从以下输出结果可以看到网卡已经启用了。 ``` # ip a | grep -A 5 "eth1:" 3: eth1: mtu 1500 qdisc pfifo_fast state UP qlen 1000 link/ether 08:00:27:d5:a0:18 brd ff:ff:ff:ff:ff:ff inet 192.168.1.7/24 brd 192.168.1.255 scope global eth1 inet6 fe80::a00:27ff:fed5:a018/64 scope link tentative dadfailed valid_lft forever preferred_lft forever ``` `ifup` 和 `ifdown` 不支持以 `enpXXX` 命名的网卡。当执行该命令时得到的结果如下: ``` # ifdown enp0s8 Unknown interface enp0s8 ``` ### 3、如何使用 ip 命令启用禁用网卡? `ip` 命令用于管理网卡,用于替代老旧的、不推荐使用的 `ifconfig` 命令。 它和 `ifconfig` 命令很相似,但是提供了很多 `ifconfig` 命令不具有的强大的特性。 `ip` 的常用语法: ``` # ip link set Down/Up ``` 执行以下命令禁用 `enp0s3` 网卡。 ``` # ip link set enp0s3 down ``` 从以下输出结果可以看到网卡已经被禁用了。 ``` # ip a | grep -A 1 "enp0s3:" 2: enp0s3: mtu 1500 qdisc fq_codel state DOWN group default qlen 1000 link/ether 08:00:27:c2:e4:e8 brd ff:ff:ff:ff:ff:ff ``` 执行以下命令启用 `enp0s3` 网卡。 ``` # ip link set enp0s3 up ``` 从以下输出结果可以看到网卡已经启用了。 ``` # ip a | grep -A 5 "enp0s3:" 2: enp0s3: mtu 1500 qdisc fq_codel state UP group default qlen 1000 link/ether 08:00:27:c2:e4:e8 brd ff:ff:ff:ff:ff:ff inet 192.168.1.4/24 brd 192.168.1.255 scope global dynamic noprefixroute enp0s3 valid_lft 86294sec preferred_lft 86294sec inet6 fe80::3899:270f:ae38:b433/64 scope link noprefixroute valid_lft forever preferred_lft forever ``` ### 4、如何使用 nmcli 命令启用禁用网卡? `nmcli` 是一个控制 NetworkManager 并报告网络状态的命令行工具。 `nmcli` 可以用做 nm-applet 或者其他图形化客户端的替代品。它可以用于展示、创建、修改、删除、启用和停用网络连接。除此之后,它还可以用来管理和展示网络设备状态。 `nmcli` 命令大部分情况下都是使用“配置名称”工作而不是“设备名称”。所以,执行以下命令,获取网卡对应的配置名称。(LCTT 译注:在使用 `nmtui` 或者 `nmcli` 管理网络连接的时候,可以为网络连接配置一个名称,就是这里提到的<ruby> 配置名称 <rt> Profile name </rt></ruby>`) ``` # nmcli con show NAME UUID TYPE DEVICE Wired connection 1 3d5afa0a-419a-3d1a-93e6-889ce9c6a18c ethernet enp0s3 Wired connection 2 a22154b7-4cc4-3756-9d8d-da5a4318e146 ethernet enp0s8 ``` `nmcli` 的常用语法: ``` # nmcli con Down/Up ``` 执行以下命令禁用 `enp0s3` 网卡。在禁用网卡的时候,你需要使用配置名称而不是设备名称。 ``` # nmcli con down 'Wired connection 1' Connection 'Wired connection 1' successfully deactivated (D-Bus active path: /org/freedesktop/NetworkManager/ActiveConnection/6) ``` 从以下输出结果可以看到网卡已经禁用了。 ``` # nmcli dev status DEVICE TYPE STATE CONNECTION enp0s8 ethernet connected Wired connection 2 enp0s3 ethernet disconnected -- lo loopback unmanaged -- ``` 执行以下命令启用 `enp0s3` 网卡。同样的,这里你需要使用配置名称而不是设备名称。 ``` # nmcli con up 'Wired connection 1' Connection successfully activated (D-Bus active path: /org/freedesktop/NetworkManager/ActiveConnection/7) ``` 从以下输出结果可以看到网卡已经启用了。 ``` # nmcli dev status DEVICE TYPE STATE CONNECTION enp0s8 ethernet connected Wired connection 2 enp0s3 ethernet connected Wired connection 1 lo loopback unmanaged -- ``` ### 5、如何使用 nmtui 命令启用禁用网卡? `nmtui` 是一个与 NetworkManager 交互的、基于 curses 图形库的终端 UI 应用。 在启用 `nmtui` 的时候,如果第一个参数没有特别指定,它会引导用户选择对应的操作去执行。 执行以下命令打开 `mntui` 界面。选择 “Active a connection” 然后点击 “OK”。 ``` # nmtui ``` ![](/data/attachment/album/201905/12/112549f7tpofotcjpgl454.png) 选择你要禁用的网卡,然后点击 “Deactivate” 按钮,就可以将网卡禁用。 ![](/data/attachment/album/201905/12/112551lgkpycvmim1wseig.png) 如果要启用网卡,使用上述同样的步骤即可。 ![](/data/attachment/album/201905/12/112552cq6scklsz6n6pntl.png) --- via: <https://www.2daygeek.com/enable-disable-up-down-nic-network-interface-port-linux-using-ifconfig-ifdown-ifup-ip-nmcli-nmtui/> 作者:[Magesh Maruthamuthu](https://www.2daygeek.com/author/magesh/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[bodhix](https://github.com/bodhix) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
Linux 下的进程间通信:使用管道和消息队列
Marty Kalin
https://opensource.com/article/19/4/interprocess-communication-linux-channels
学习在 Linux 中进程是如何与其他进程进行同步的。
/data/attachment/album/201905/12/134232i2py55yrvpvi9c75.jpg.thumb.jpg
/data/attachment/album/201905/12/134232i2py55yrvpvi9c75.jpg
true
false
true
lujun9972
FSSlc
wxy
false
[ "IPC" ]
软件开发
{ "viewnum": 9004, "commentnum": 0, "favtimes": 2, "sharetimes": 0, "likes": 0 }
[]
[ { "raid": 10826, "displayorder": 0 }, { "raid": 10930, "displayorder": 0 } ]
学习在 Linux 中进程是如何与其他进程进行同步的。
2019-05-12T13:43:00
2019-05-12T13:43:00
10,845
/article-10845-1.html
> > 学习在 Linux 中进程是如何与其他进程进行同步的。 > > > ![](/data/attachment/album/201905/12/134232i2py55yrvpvi9c75.jpg) 本篇是 Linux 下[进程间通信](https://en.wikipedia.org/wiki/Inter-process_communication)(IPC)系列的第二篇文章。[第一篇文章](/article-10826-1.html) 聚焦于通过共享文件和共享内存段这样的共享存储来进行 IPC。这篇文件的重点将转向管道,它是连接需要通信的进程之间的通道。管道拥有一个*写端*用于写入字节数据,还有一个*读端*用于按照先入先出的顺序读入这些字节数据。而这些字节数据可能代表任何东西:数字、员工记录、数字电影等等。 管道有两种类型,命名管道和无名管道,都可以交互式的在命令行或程序中使用它们;相关的例子在下面展示。这篇文章也将介绍内存队列,尽管它们有些过时了,但它们不应该受这样的待遇。 在本系列的第一篇文章中的示例代码承认了在 IPC 中可能受到竞争条件(不管是基于文件的还是基于内存的)的威胁。自然地我们也会考虑基于管道的 IPC 的安全并发问题,这个也将在本文中提及。针对管道和内存队列的例子将会使用 POSIX 推荐使用的 API,POSIX 的一个核心目标就是线程安全。 请查看一些 [mq\_open 函数的 man 页](http://man7.org/linux/man-pages/man2/mq_open.2.html),这个函数属于内存队列的 API。这个 man 页中有关 [特性](http://man7.org/linux/man-pages/man2/mq_open.2.html#ATTRIBUTES) 的章节带有一个小表格: | 接口 | 特性 | 值 | | --- | --- | --- | | `mq_open()` | 线程安全 | MT-Safe | 上面的 MT-Safe(MT 指的是<ruby> 多线程 <rt> multi-threaded </rt></ruby>)意味着 `mq_open` 函数是线程安全的,进而暗示是进程安全的:一个进程的执行和它的一个线程执行的过程类似,假如竞争条件不会发生在处于*相同*进程的线程中,那么这样的条件也不会发生在处于不同进程的线程中。MT-Safe 特性保证了调用 `mq_open` 时不会出现竞争条件。一般来说,基于通道的 IPC 是并发安全的,尽管在下面例子中会出现一个有关警告的注意事项。 ### 无名管道 首先让我们通过一个特意构造的命令行例子来展示无名管道是如何工作的。在所有的现代系统中,符号 `|` 在命令行中都代表一个无名管道。假设我们的命令行提示符为 `%`,接下来考虑下面的命令: ``` ## 写入方在 | 左边,读取方在右边 % sleep 5 | echo "Hello, world!" ``` `sleep` 和 `echo` 程序以不同的进程执行,无名管道允许它们进行通信。但是上面的例子被特意设计为没有通信发生。问候语 “Hello, world!” 出现在屏幕中,然后过了 5 秒后,命令行返回,暗示 `sleep` 和 `echo` 进程都已经结束了。这期间发生了什么呢? 在命令行中的竖线 `|` 的语法中,左边的进程(`sleep`)是写入方,右边的进程(`echo`)为读取方。默认情况下,读取方将会阻塞,直到从通道中能够读取到字节数据,而写入方在写完它的字节数据后,将发送 <ruby> 流已终止 <rt> end-of-stream </rt></ruby>的标志。(即便写入方过早终止了,一个流已终止的标志还是会发给读取方。)无名管道将保持到写入方和读取方都停止的那个时刻。 在上面的例子中,`sleep` 进程并没有向通道写入任何的字节数据,但在 5 秒后就终止了,这时将向通道发送一个流已终止的标志。与此同时,`echo` 进程立即向标准输出(屏幕)写入问候语,因为这个进程并不从通道中读入任何字节,所以它并没有等待。一旦 `sleep` 和 `echo` 进程都终止了,不会再用作通信的无名管道将会消失然后返回命令行提示符。 下面这个更加实用的示例将使用两个无名管道。我们假定文件 `test.dat` 的内容如下: ``` this is the way the world ends ``` 下面的命令: ``` % cat test.dat | sort | uniq ``` 会将 `cat`(<ruby> 连接 <rt> concatenate </rt></ruby>的缩写)进程的输出通过管道传给 `sort` 进程以生成排序后的输出,然后将排序后的输出通过管道传给 `uniq` 进程以消除重复的记录(在本例中,会将两次出现的 “the” 缩减为一个): ``` ends is the this way world ``` 下面展示的情景展示的是一个带有两个进程的程序通过一个无名管道通信来进行通信。 #### 示例 1. 两个进程通过一个无名管道来进行通信 ``` #include <sys/wait.h> /* wait */ #include <stdio.h> #include <stdlib.h> /* exit functions */ #include <unistd.h> /* read, write, pipe, _exit */ #include <string.h> #define ReadEnd 0 #define WriteEnd 1 void report_and_exit(const char* msg) { perror(msg); exit(-1); /** failure **/ } int main() { int pipeFDs[2]; /* two file descriptors */ char buf; /* 1-byte buffer */ const char* msg = "Nature's first green is gold\n"; /* bytes to write */ if (pipe(pipeFDs) < 0) report_and_exit("pipeFD"); pid_t cpid = fork(); /* fork a child process */ if (cpid < 0) report_and_exit("fork"); /* check for failure */ if (0 == cpid) { /*** child ***/ /* child process */ close(pipeFDs[WriteEnd]); /* child reads, doesn't write */ while (read(pipeFDs[ReadEnd], &buf, 1) > 0) /* read until end of byte stream */ write(STDOUT_FILENO, &buf, sizeof(buf)); /* echo to the standard output */ close(pipeFDs[ReadEnd]); /* close the ReadEnd: all done */ _exit(0); /* exit and notify parent at once */ } else { /*** parent ***/ close(pipeFDs[ReadEnd]); /* parent writes, doesn't read */ write(pipeFDs[WriteEnd], msg, strlen(msg)); /* write the bytes to the pipe */ close(pipeFDs[WriteEnd]); /* done writing: generate eof */ wait(NULL); /* wait for child to exit */ exit(0); /* exit normally */ } return 0; } ``` 上面名为 `pipeUN` 的程序使用系统函数 `fork` 来创建一个进程。尽管这个程序只有一个单一的源文件,在它正确执行的情况下将会发生多进程的情况。 > > 下面的内容是对库函数 `fork` 如何工作的一个简要回顾: > > > * `fork` 函数由*父*进程调用,在失败时返回 `-1` 给父进程。在 `pipeUN` 这个例子中,相应的调用是: > > > > ``` > pid_t cpid = fork(); /* called in parent */ > ``` > > 函数调用后的返回值也被保存下来了。在这个例子中,保存在整数类型 `pid_t` 的变量 `cpid` 中。(每个进程有它自己的*进程 ID*,这是一个非负的整数,用来标记进程)。复刻一个新的进程可能会因为多种原因而失败,包括*进程表*满了的原因,这个结构由系统维持,以此来追踪进程状态。明确地说,僵尸进程假如没有被处理掉,将可能引起进程表被填满的错误。 > * 假如 `fork` 调用成功,则它将创建一个新的子进程,向父进程返回一个值,向子进程返回另外的一个值。在调用 `fork` 后父进程和子进程都将执行相同的代码。(子进程继承了到此为止父进程中声明的所有变量的拷贝),特别地,一次成功的 `fork` 调用将返回如下的东西: > > > + 向子进程返回 `0` > + 向父进程返回子进程的进程 ID > * 在一次成功的 `fork` 调用后,一个 `if`/`else` 或等价的结构将会被用来隔离针对父进程和子进程的代码。在这个例子中,相应的声明为: > > > > ``` > if (0 == cpid) { /*** child ***/ > ... > } > else { /*** parent ***/ > ... > } > ``` > > > 假如成功地复刻出了一个子进程,`pipeUN` 程序将像下面这样去执行。在一个整数的数列里: ``` int pipeFDs[2]; /* two file descriptors */ ``` 来保存两个文件描述符,一个用来向管道中写入,另一个从管道中写入。(数组元素 `pipeFDs[0]` 是读端的文件描述符,元素 `pipeFDs[1]` 是写端的文件描述符。)在调用 `fork` 之前,对系统 `pipe` 函数的成功调用,将立刻使得这个数组获得两个文件描述符: ``` if (pipe(pipeFDs) < 0) report_and_exit("pipeFD"); ``` 父进程和子进程现在都有了文件描述符的副本。但*分离关注点*模式意味着每个进程恰好只需要一个描述符。在这个例子中,父进程负责写入,而子进程负责读取,尽管这样的角色分配可以反过来。在 `if` 子句中的第一个语句将用于关闭管道的读端: ``` close(pipeFDs[WriteEnd]); /* called in child code */ ``` 在父进程中的 `else` 子句将会关闭管道的读端: ``` close(pipeFDs[ReadEnd]); /* called in parent code */ ``` 然后父进程将向无名管道中写入某些字节数据(ASCII 代码),子进程读取这些数据,然后向标准输出中回放它们。 在这个程序中还需要澄清的一点是在父进程代码中的 `wait` 函数。一旦被创建后,子进程很大程度上独立于它的父进程,正如简短的 `pipeUN` 程序所展示的那样。子进程可以执行任意的代码,而它们可能与父进程完全没有关系。但是,假如当子进程终止时,系统将会通过一个信号来通知父进程。 要是父进程在子进程之前终止又该如何呢?在这种情形下,除非采取了预防措施,子进程将会变成在进程表中的一个*僵尸*进程。预防措施有两大类型:第一种是让父进程去通知系统,告诉系统它对子进程的终止没有任何兴趣: ``` signal(SIGCHLD, SIG_IGN); /* in parent: ignore notification */ ``` 第二种方法是在子进程终止时,让父进程执行一个 `wait`。这样就确保了父进程可以独立于子进程而存在。在 `pipeUN` 程序中使用了第二种方法,其中父进程的代码使用的是下面的调用: ``` wait(NULL); /* called in parent */ ``` 这个对 `wait` 的调用意味着*一直等待直到任意一个子进程的终止发生*,因此在 `pipeUN` 程序中,只有一个子进程。(其中的 `NULL` 参数可以被替换为一个保存有子程序退出状态的整数变量的地址。)对于更细粒度的控制,还可以使用更灵活的 `waitpid` 函数,例如特别指定多个子进程中的某一个。 `pipeUN` 将会采取另一个预防措施。当父进程结束了等待,父进程将会调用常规的 `exit` 函数去退出。对应的,子进程将会调用 `_exit` 变种来退出,这类变种将快速跟踪终止相关的通知。在效果上,子进程会告诉系统立刻去通知父进程它的这个子进程已经终止了。 假如两个进程向相同的无名管道中写入内容,字节数据会交错吗?例如,假如进程 P1 向管道写入内容: ``` foo bar ``` 同时进程 P2 并发地写入: ``` baz baz ``` 到相同的管道,最后的结果似乎是管道中的内容将会是任意错乱的,例如像这样: ``` baz foo baz bar ``` 只要没有写入超过 `PIPE_BUF` 字节,POSIX 标准就能确保写入不会交错。在 Linux 系统中, `PIPE_BUF` 的大小是 4096 字节。对于管道我更喜欢只有一个写入方和一个读取方,从而绕过这个问题。 ### 命名管道 无名管道没有备份文件:系统将维持一个内存缓存来将字节数据从写方传给读方。一旦写方和读方终止,这个缓存将会被回收,进而无名管道消失。相反的,命名管道有备份文件和一个不同的 API。 下面让我们通过另一个命令行示例来了解命名管道的要点。下面是具体的步骤: * 开启两个终端。这两个终端的工作目录应该相同。 * 在其中一个终端中,键入下面的两个命令(命令行提示符仍然是 `%`,我的注释以 `##` 打头。): ``` % mkfifo tester ## 创建一个备份文件,名为 tester % cat tester ## 将管道的内容输出到 stdout ``` 在最开始,没有任何东西会出现在终端中,因为到现在为止没有在命名管道中写入任何东西。 * 在第二个终端中输入下面的命令: ``` % cat > tester ## redirect keyboard input to the pipe hello, world! ## then hit Return key bye, bye ## ditto <Control-C> ## terminate session with a Control-C ``` 无论在这个终端中输入什么,它都会在另一个终端中显示出来。一旦键入 `Ctrl+C`,就会回到正常的命令行提示符,因为管道已经被关闭了。 * 通过移除实现命名管道的文件来进行清理: ``` % unlink tester ``` 正如 `mkfifo` 程序的名字所暗示的那样,命名管道也被叫做 FIFO,因为第一个进入的字节,就会第一个出,其他的类似。有一个名为 `mkfifo` 的库函数,用它可以在程序中创建一个命名管道,它将在下一个示例中被用到,该示例由两个进程组成:一个向命名管道写入,而另一个从该管道读取。 #### 示例 2. fifoWriter 程序 ``` #include <sys/types.h> #include <sys/stat.h> #include <fcntl.h> #include <unistd.h> #include <time.h> #include <stdlib.h> #include <stdio.h> #define MaxLoops 12000 /* outer loop */ #define ChunkSize 16 /* how many written at a time */ #define IntsPerChunk 4 /* four 4-byte ints per chunk */ #define MaxZs 250 /* max microseconds to sleep */ int main() { const char* pipeName = "./fifoChannel"; mkfifo(pipeName, 0666); /* read/write for user/group/others */ int fd = open(pipeName, O_CREAT | O_WRONLY); /* open as write-only */ if (fd < 0) return -1; /* can't go on */ int i; for (i = 0; i < MaxLoops; i++) { /* write MaxWrites times */ int j; for (j = 0; j < ChunkSize; j++) { /* each time, write ChunkSize bytes */ int k; int chunk[IntsPerChunk]; for (k = 0; k < IntsPerChunk; k++) chunk[k] = rand(); write(fd, chunk, sizeof(chunk)); } usleep((rand() % MaxZs) + 1); /* pause a bit for realism */ } close(fd); /* close pipe: generates an end-of-stream marker */ unlink(pipeName); /* unlink from the implementing file */ printf("%i ints sent to the pipe.\n", MaxLoops * ChunkSize * IntsPerChunk); return 0; } ``` 上面的 `fifoWriter` 程序可以被总结为如下: * 首先程序创建了一个命名管道用来写入数据: ``` mkfifo(pipeName, 0666); /* read/write perms for user/group/others */ int fd = open(pipeName, O_CREAT | O_WRONLY); ``` 其中的 `pipeName` 是备份文件的名字,传递给 `mkfifo` 作为它的第一个参数。接着命名管道通过我们熟悉的 `open` 函数调用被打开,而这个函数将会返回一个文件描述符。 * 在实现层面上,`fifoWriter` 不会一次性将所有的数据都写入,而是写入一个块,然后休息随机数目的微秒时间,接着再循环往复。总的来说,有 768000 个 4 字节整数值被写入到命名管道中。 * 在关闭命名管道后,`fifoWriter` 也将使用 `unlink` 取消对该文件的连接。 ``` close(fd); /* close pipe: generates end-of-stream marker */ unlink(pipeName); /* unlink from the implementing file */ ``` 一旦连接到管道的每个进程都执行了 `unlink` 操作后,系统将回收这些备份文件。在这个例子中,只有两个这样的进程 `fifoWriter` 和 `fifoReader`,它们都做了 `unlink` 操作。 这个两个程序应该在不同终端的相同工作目录中执行。但是 `fifoWriter` 应该在 `fifoReader` 之前被启动,因为需要 `fifoWriter` 去创建管道。然后 `fifoReader` 才能够获取到刚被创建的命名管道。 #### 示例 3. fifoReader 程序 ``` #include <stdio.h> #include <stdlib.h> #include <string.h> #include <fcntl.h> #include <unistd.h> unsigned is_prime(unsigned n) { /* not pretty, but efficient */ if (n <= 3) return n > 1; if (0 == (n % 2) || 0 == (n % 3)) return 0; unsigned i; for (i = 5; (i * i) <= n; i += 6) if (0 == (n % i) || 0 == (n % (i + 2))) return 0; return 1; /* found a prime! */ } int main() { const char* file = "./fifoChannel"; int fd = open(file, O_RDONLY); if (fd < 0) return -1; /* no point in continuing */ unsigned count = 0, total = 0, primes_count = 0; while (1) { int next; int i; ssize_t count = read(fd, &next, sizeof(int)); if (0 == count) break; /* end of stream */ else if (count == sizeof(int)) { /* read a 4-byte int value */ total++; if (is_prime(next)) primes_count++; } } close(fd); /* close pipe from read end */ unlink(file); /* unlink from the underlying file */ printf("Received ints: %u, primes: %u\n", total, primes_count); return 0; } ``` 上面的 `fifoReader` 的内容可以总结为如下: * 因为 `fifoWriter` 已经创建了命名管道,所以 `fifoReader` 只需要利用标准的 `open` 调用来通过备份文件来获取到管道中的内容: ``` const char* file = "./fifoChannel"; int fd = open(file, O_RDONLY); ``` 这个文件的是以只读打开的。 * 然后这个程序进入一个潜在的无限循环,在每次循环时,尝试读取 4 字节的块。`read` 调用: ``` ssize_t count = read(fd, &next, sizeof(int)); ``` 返回 0 来暗示该流的结束。在这种情况下,`fifoReader` 跳出循环,关闭命名管道,并在终止前 `unlink` 备份文件。 * 在读入 4 字节整数后,`fifoReader` 检查这个数是否为质数。这个操作代表了一个生产级别的读取器可能在接收到的字节数据上执行的逻辑操作。在示例运行中,在接收到的 768000 个整数中有 37682 个质数。 重复运行示例, `fifoReader` 将成功地读取 `fifoWriter` 写入的所有字节。这不是很让人惊讶的。这两个进程在相同的机器上执行,从而可以不用考虑网络相关的问题。命名管道是一个可信且高效的 IPC 机制,因而被广泛使用。 下面是这两个程序的输出,它们在不同的终端中启动,但处于相同的工作目录: ``` % ./fifoWriter 768000 ints sent to the pipe. ### % ./fifoReader Received ints: 768000, primes: 37682 ``` ### 消息队列 管道有着严格的先入先出行为:第一个被写入的字节将会第一个被读,第二个写入的字节将第二个被读,以此类推。消息队列可以做出相同的表现,但它又足够灵活,可以使得字节块可以不以先入先出的次序来接收。 正如它的名字所提示的那样,消息队列是一系列的消息,每个消息包含两部分: * 荷载,一个字节序列(在 C 中是 char) * 类型,以一个正整数值的形式给定,类型用来分类消息,为了更灵活的回收 看一下下面对一个消息队列的描述,每个消息由一个整数类型标记: ``` +-+ +-+ +-+ +-+ sender--->|3|--->|2|--->|2|--->|1|--->receiver +-+ +-+ +-+ +-+ ``` 在上面展示的 4 个消息中,标记为 1 的是开头,即最接近接收端,然后另个标记为 2 的消息,最后接着一个标记为 3 的消息。假如按照严格的 FIFO 行为执行,消息将会以 1-2-2-3 这样的次序被接收。但是消息队列允许其他收取次序。例如,消息可以被接收方以 3-2-1-2 的次序接收。 `mqueue` 示例包含两个程序,`sender` 将向消息队列中写入数据,而 `receiver` 将从这个队列中读取数据。这两个程序都包含的头文件 `queue.h` 如下所示: #### 示例 4. 头文件 queue.h ``` #define ProjectId 123 #define PathName "queue.h" /* any existing, accessible file would do */ #define MsgLen 4 #define MsgCount 6 typedef struct { long type; /* must be of type long */ char payload[MsgLen + 1]; /* bytes in the message */ } queuedMessage; ``` 上面的头文件定义了一个名为 `queuedMessage` 的结构类型,它带有 `payload`(字节数组)和 `type`(整数)这两个域。该文件也定义了一些符号常数(使用 `#define` 语句),前两个常数被用来生成一个 `key`,而这个 `key` 反过来被用来获取一个消息队列的 ID。`ProjectId` 可以是任何正整数值,而 `PathName` 必须是一个存在的、可访问的文件,在这个示例中,指的是文件 `queue.h`。在 `sender` 和 `receiver` 中,它们都有的设定语句为: ``` key_t key = ftok(PathName, ProjectId); /* generate key */ int qid = msgget(key, 0666 | IPC_CREAT); /* use key to get queue id */ ``` ID `qid` 在效果上是消息队列文件描述符的对应物。 #### 示例 5. sender 程序 ``` #include <stdio.h> #include <sys/ipc.h> #include <sys/msg.h> #include <stdlib.h> #include <string.h> #include "queue.h" void report_and_exit(const char* msg) { perror(msg); exit(-1); /* EXIT_FAILURE */ } int main() { key_t key = ftok(PathName, ProjectId); if (key < 0) report_and_exit("couldn't get key..."); int qid = msgget(key, 0666 | IPC_CREAT); if (qid < 0) report_and_exit("couldn't get queue id..."); char* payloads[] = {"msg1", "msg2", "msg3", "msg4", "msg5", "msg6"}; int types[] = {1, 1, 2, 2, 3, 3}; /* each must be > 0 */ int i; for (i = 0; i < MsgCount; i++) { /* build the message */ queuedMessage msg; msg.type = types[i]; strcpy(msg.payload, payloads[i]); /* send the message */ msgsnd(qid, &msg, sizeof(msg), IPC_NOWAIT); /* don't block */ printf("%s sent as type %i\n", msg.payload, (int) msg.type); } return 0; } ``` 上面的 `sender` 程序将发送出 6 个消息,每两个为一个类型:前两个是类型 1,接着的连个是类型 2,最后的两个为类型 3。发送的语句: ``` msgsnd(qid, &msg, sizeof(msg), IPC_NOWAIT); ``` 被配置为非阻塞的(`IPC_NOWAIT` 标志),是因为这里的消息体量上都很小。唯一的危险在于一个完整的序列将可能导致发送失败,而这个例子不会。下面的 `receiver` 程序也将使用 `IPC_NOWAIT` 标志来接收消息。 #### 示例 6. receiver 程序 ``` #include <stdio.h> #include <sys/ipc.h> #include <sys/msg.h> #include <stdlib.h> #include "queue.h" void report_and_exit(const char* msg) { perror(msg); exit(-1); /* EXIT_FAILURE */ } int main() { key_t key= ftok(PathName, ProjectId); /* key to identify the queue */ if (key < 0) report_and_exit("key not gotten..."); int qid = msgget(key, 0666 | IPC_CREAT); /* access if created already */ if (qid < 0) report_and_exit("no access to queue..."); int types[] = {3, 1, 2, 1, 3, 2}; /* different than in sender */ int i; for (i = 0; i < MsgCount; i++) { queuedMessage msg; /* defined in queue.h */ if (msgrcv(qid, &msg, sizeof(msg), types[i], MSG_NOERROR | IPC_NOWAIT) < 0) puts("msgrcv trouble..."); printf("%s received as type %i\n", msg.payload, (int) msg.type); } /** remove the queue **/ if (msgctl(qid, IPC_RMID, NULL) < 0) /* NULL = 'no flags' */ report_and_exit("trouble removing queue..."); return 0; } ``` 这个 `receiver` 程序不会创建消息队列,尽管 API 尽管建议那样。在 `receiver` 中,对 ``` int qid = msgget(key, 0666 | IPC_CREAT); ``` 的调用可能因为带有 `IPC_CREAT` 标志而具有误导性,但是这个标志的真实意义是*如果需要就创建,否则直接获取*。`sender` 程序调用 `msgsnd` 来发送消息,而 `receiver` 调用 `msgrcv` 来接收它们。在这个例子中,`sender` 以 1-1-2-2-3-3 的次序发送消息,但 `receiver` 接收它们的次序为 3-1-2-1-3-2,这显示消息队列没有被严格的 FIFO 行为所拘泥: ``` % ./sender msg1 sent as type 1 msg2 sent as type 1 msg3 sent as type 2 msg4 sent as type 2 msg5 sent as type 3 msg6 sent as type 3 % ./receiver msg5 received as type 3 msg1 received as type 1 msg3 received as type 2 msg2 received as type 1 msg6 received as type 3 msg4 received as type 2 ``` 上面的输出显示 `sender` 和 `receiver` 可以在同一个终端中启动。输出也显示消息队列是持久的,即便 `sender` 进程在完成创建队列、向队列写数据、然后退出的整个过程后,该队列仍然存在。只有在 `receiver` 进程显式地调用 `msgctl` 来移除该队列,这个队列才会消失: ``` if (msgctl(qid, IPC_RMID, NULL) < 0) /* remove queue */ ``` ### 总结 管道和消息队列的 API 在根本上来说都是单向的:一个进程写,然后另一个进程读。当然还存在双向命名管道的实现,但我认为这个 IPC 机制在它最为简单的时候反而是最佳的。正如前面提到的那样,消息队列已经不大受欢迎了,尽管没有找到什么特别好的原因来解释这个现象;而队列仍然是 IPC 工具箱中的一个工具。这个快速的 IPC 工具箱之旅将以第 3 部分(通过套接字和信号来示例 IPC)来终结。 --- via: <https://opensource.com/article/19/4/interprocess-communication-linux-channels> 作者:[Marty Kalin](https://opensource.com/users/mkalindepauledu) 选题:[lujun9972](https://github.com/lujun9972) 译者:[FSSlc](https://github.com/FSSlc) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
每日安全资讯:Google Chrome将不再允许网站劫持后退按钮
安华金和
谷歌表示,有些页面使用户很难或不可能通过浏览器后退按钮返回他们原先的页面。谷歌将通过阻止任何不涉及用户输入的行为来解决这个问题.
/data/attachment/album/201905/12/143653xak3qhqn6znmhslh.jpg.thumb.jpg
/data/attachment/album/201905/12/143653xak3qhqn6znmhslh.jpg
true
false
false
false
[ "Chrome" ]
每日安全资讯
{ "viewnum": 4028, "commentnum": 1, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[ { "postip": "117.136.91.59", "message": "这么多年,才“将要”改变这一现状", "username": "来自117.136.91.59的 MIUI Browser 10.7|Android 用户", "date": "2019-05-12T20:23:25" } ]
[]
谷歌表示,有些页面使用户很难或不可能通过浏览器后退按钮返回他们原先的页面。谷歌将通过阻止任何不涉及用户输入的行为来解决这个问题.
2019-05-12T14:37:00
2019-05-12T14:37:00
10,846
/article-10846-1.html
![](/data/attachment/album/201905/12/143653xak3qhqn6znmhslh.jpg) 作为全球头号浏览器,谷歌浏览器不断发展,谷歌一直在寻求提高所有平台的可用性,安全性和性能的方法。最近,谷歌开始研究一项新功能,该功能将阻止网站接管 Chromium 中的后退按钮。 由于许多用户发现许多网站或者网页使得浏览器中的后退按钮几乎没用,因为它们不想让用户离开当前页面,在这种情况下,按下后退按钮没有任何效果,因为浏览器似乎卡在同一页面上。这是一种噱头,利用后退按钮在浏览器中的工作方式,并使用重定向或历史操作。 谷歌表示,有些页面使用户很难或不可能通过浏览器后退按钮返回他们原先的页面。这是通过重定向或操纵浏览器历史记录来实现的,并导致滥用和恼人的用户体验。谷歌将通过阻止任何不涉及用户输入的行为来解决这个问题,这意味着按下后退按钮将获得预期的结果,并且不允许复杂的代码进行干预。浏览器后退按钮的新行为将跳过添加历史记录条目或重定向用户页面,但是同时不会影响 history.back/forward API。 该功能仍在开发中,可在所有平台上使用,包括 Windows,Mac,Linux,Chrome OS,Android 和 iOS。 来源:cnBeta.COM ### 更多资讯 ##### 法院驳回针对苹果 FaceTime 窃听漏洞发起的诉讼 据外媒报道,早在今年 1 月,FaceTime 就出现了一个重大漏洞,它能让用户在 FaceTime 电话未被接受的情况下也能强行与另一个人建立 FaceTime 连接,即使在 FaceTime 调用未被接受的情况下,同时还可以访问其音频和视频。 来源: cnBeta.COM 详情: <http://t.cn/EosuMLj> ##### 报道称美国军方不知道其运营网站的具体数量 据外媒 The Verge 报道,美国国防部不确定其运营了多少个网站。据美国军事专刊<ruby> 《星条旗报》 <rp> ( </rp> <rt> Starsand Stripes </rt> <rp> ) </rp></ruby>报道,在上个月的一次活动中,马里兰州米德堡国防媒体活动代理主任、美国陆军上校 Paul Haverstick 表示,对五角大楼运营的网站数量“并不确定”。 来源: cnBeta.COM 详情: <http://t.cn/EosuSvy> ##### 网络公司后台被攻击损失近千万元 民警千里抓“黑客” 去年 12 月,北京回龙观派出所接到辖区内一网络公司报警,称其开发的软件被黑客攻击,公司服务器全面瘫痪。警方经过近半年的侦查,通过层层数据梳理成功锁定嫌疑人,近日远赴成都将雇佣黑客实施网络攻击的两名嫌疑人抓获归案。目前案件正在进一步工作中。 来源: 北京晚报 详情: <http://t.cn/EosupM6> ##### 土耳其对脸书数据泄露事件罚款 27 万美元 土耳其官方部门“个人数据保护机构”10 日说,就社交媒体脸书去年泄露用户数据影响土耳其用户事件,该机构于今年 4 月对脸书罚款 165 万土耳其里拉(约合 27 万美元)。 来源: 新华网 详情: <http://t.cn/EosuYpu> (信息来源于网络,安华金和搜集整理)
Kindd:一个图形化 dd 命令前端
Sk
https://www.ostechnix.com/kindd-a-graphical-frontend-to-dd-command/
向 “Kindd” 问好,一个属于 dd 命令的图形化前端。它是自由开源的、用 Qt Quick 所写的工具。总的来说,这个工具对那些对命令行不适应的初学者是非常有用的。
/data/attachment/album/201905/12/231740uhxa662k3mycxp9k.png.thumb.jpg
/data/attachment/album/201905/12/231740uhxa662k3mycxp9k.png
true
false
true
lujun9972
robsean
wxy
false
[ "dd", "iso" ]
分享
{ "viewnum": 6144, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
向 “Kindd” 问好,一个属于 dd 命令的图形化前端。它是自由开源的、用 Qt Quick 所写的工具。总的来说,这个工具对那些对命令行不适应的初学者是非常有用的。
2019-05-12T23:17:37
2019-05-12T23:17:37
10,847
/article-10847-1.html
![Kindd - A Graphical Frontend To dd Command](/data/attachment/album/201905/12/231740uhxa662k3mycxp9k.png) 前不久,我们已经学习如何在类 Unix 系统中 [使用 dd 命令创建可启动的 ISO](https://www.ostechnix.com/how-to-create-bootable-usb-drive-using-dd-command/)。请记住,`dd` 命令是最具危险性和破坏性的命令之一。如果你不确定你实际在做什么,你可能会在几分钟内意外地擦除你的硬盘数据。`dd` 命令仅仅从 `if` 参数获取数据,并写入数据到 `of` 参数。它将不关心它正在覆盖什么,它也不关心是否在磁道上有一个分区表,或一个启动扇区,或者一个家文件夹,或者任何重要的东西。它将简单地做它被告诉去做的事。如果你是初学者,一般地尝试避免使用 `dd` 命令来做实验。幸好,这有一个支持 `dd` 命令的简单的 GUI 实用程序。向 “Kindd” 问好,一个属于 `dd` 命令的图形化前端。它是自由开源的、用 Qt Quick 所写的工具。总的来说,这个工具对那些对命令行不适应的初学者是非常有用的。 它的开发者创建这个工具主要是为了提供: 1. 一个用于 `dd` 命令的现代化的、简单而安全的图形化用户界面, 2. 一种简单地创建可启动设备的图形化方法,而不必使用终端。 ### 安装 Kindd Kindd 在 [AUR](https://aur.archlinux.org/packages/kindd-git/) 中是可用的。所以,如果你是 Arch 用户,使用任一的 AUR 助手工具来安装它,例如 [Yay](https://www.ostechnix.com/yay-found-yet-another-reliable-aur-helper/) 。 要安装其 Git 发布版,运行: ``` $ yay -S kindd-git ``` 要安装正式发布版,运行: ``` $ yay -S kindd ``` 在安装后,从菜单或应用程序启动器启动 Kindd。 对于其它的发行版,你需要从源文件手动编译和安装它,像下面所示。 确保你已经安装下面的必要条件。 * git * coreutils * polkit * qt5-base * qt5-quickcontrols * qt5-quickcontrols2 * qt5-graphicaleffects 一旦所有必要条件安装,使用 `git` 克隆 Kindd 储存库: ``` git clone https://github.com/LinArcX/Kindd/ ``` 转到你刚刚克隆 Kindd 的目录,并编译和安装它: ``` cd Kindd qmake make ``` 最后运行下面的命令来启动 Kindd 应用程序: ``` ./kindd ``` Kindd 内部使用 pkexec。pkexec 代理被默认安装在大多数桌面环境中。但是,如果你使用 i3 (或者可能还有一些其它的桌面环境),你应该首先安装 polkit-gnome ,然后粘贴下面的行到 i3 配置文件: ``` exec /usr/lib/polkit-gnome/polkit-gnome-authentication-agent-1 & ``` ### 使用 Kindd 创建可启动的 ISO 为从一个 ISO 创建一个可启动的 USB,插入 USB 驱动器。然后,从菜单或终端启动 Kindd 。 这是 Kindd 默认界面的外观: ![](/data/attachment/album/201905/12/231741cbkl711obi610ikl.png) *Kindd 界面* 正如你所能看到的,Kindd 界面是非常简单的和明白易懂的。这里仅有两部分,即设备列表,它显示你的系统上的可用的设备(hdd 和 Usb),并创建可启动的 .iso 。默认情况下,你将在“创建可启动 .iso”部分。 在第一列中输入块大小,在第二列中选择 ISO 文件的路径,并在第三列中选择正确的设备(USB 驱动器路径)。单击“转换/复制”按钮来开始创建可启动的 ISO 。 ![](/data/attachment/album/201905/12/231742itfbbfttqhtuh8j3.png) 一旦进程被完成,你将看到成功的信息。 ![](/data/attachment/album/201905/12/231743rhmqd4ihrm4mmr45.png) 现在,拔出 USB 驱动器,并用该 USB 启动器启动你的系统,来检查它是否真地工作。 如果你不知道真实的设备名称(目标路径),只需要在列出的设备上单击,并检查 USB 驱动器名称。 ![](/data/attachment/album/201905/12/231744sylr368yztzd0c19.png) Kindd 还处在早期开发阶段。因此,可能有错误。如果你找到一些错误,请在这篇的指南的结尾所给的 GitHub 页面报告它们。 这就是全部。希望这是有用的。更多的好东西将会来。敬请期待! 谢谢! 资源: * [Kindd GitHub 储存库](https://github.com/LinArcX/Kindd) 相关阅读: * [Etcher:一个来创建可启动 SD 卡或 USB 驱动器的漂亮的应用程序](https://www.ostechnix.com/etcher-beauitiful-app-create-bootable-sd-cards-usb-drives/) * [Bootiso 让你安全地创建可启动的 USB 驱动器](https://www.ostechnix.com/bootiso-lets-you-safely-create-bootable-usb-drive/) --- via: <https://www.ostechnix.com/kindd-a-graphical-frontend-to-dd-command/> 作者:[sk](https://www.ostechnix.com/author/sk/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[robsean](https://github.com/robsean) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
TLP:一个可以延长 Linux 笔记本电池寿命的高级电源管理工具
Magesh Maruthamuthu
https://www.2daygeek.com/tlp-increase-optimize-linux-laptop-battery-life/
多年来,Linux 在电池优化方面取得了很大进步,但我们仍然需要做一些必要的事情来改善 Linux 中笔记本电脑的电池寿命。
/data/attachment/album/201905/13/094413iu77i8w75t80tq7h.jpg.thumb.jpg
/data/attachment/album/201905/13/094413iu77i8w75t80tq7h.jpg
true
false
true
lujun9972
wxy
wxy
false
[ "电池", "笔记本", "TPL" ]
桌面应用
{ "viewnum": 22953, "commentnum": 0, "favtimes": 3, "sharetimes": 0, "likes": 0 }
[]
[]
多年来,Linux 在电池优化方面取得了很大进步,但我们仍然需要做一些必要的事情来改善 Linux 中笔记本电脑的电池寿命。
2019-05-13T09:44:00
2019-05-13T09:44:00
10,848
/article-10848-1.html
![](/data/attachment/album/201905/13/094413iu77i8w75t80tq7h.jpg) 笔记本电池是针对 Windows 操作系统进行了高度优化的,当我在笔记本电脑中使用 Windows 操作系统时,我已经意识到这一点,但对于 Linux 来说却不一样。 多年来,Linux 在电池优化方面取得了很大进步,但我们仍然需要做一些必要的事情来改善 Linux 中笔记本电脑的电池寿命。 当我考虑延长电池寿命时,我没有多少选择,但我觉得 TLP 对我来说是一个更好的解决方案,所以我会继续使用它。 在本教程中,我们将详细讨论 TLP 以延长电池寿命。 我们之前在我们的网站上写过三篇关于 Linux [笔记本电池节电工具](https://www.2daygeek.com/check-laptop-battery-status-and-charging-state-in-linux-terminal/) 的文章:[PowerTOP](https://www.2daygeek.com/powertop-monitors-laptop-battery-usage-linux/) 和 [电池充电状态](https://www.2daygeek.com/monitor-laptop-battery-charging-state-linux/)。 ### TLP [TLP](https://linrunner.de/en/tlp/docs/tlp-linux-advanced-power-management.html) 是一款自由开源的高级电源管理工具,可在不进行任何配置更改的情况下延长电池寿命。 由于它的默认配置已针对电池寿命进行了优化,因此你可能只需要安装,然后就忘记它吧。 此外,它可以高度定制化,以满足你的特定要求。TLP 是一个具有自动后台任务的纯命令行工具。它不包含GUI。 TLP 适用于各种品牌的笔记本电脑。设置电池充电阈值仅适用于 IBM/Lenovo ThinkPad。 所有 TLP 设置都存储在 `/etc/default/tlp` 中。其默认配置提供了开箱即用的优化的节能设置。 以下 TLP 设置可用于自定义,如果需要,你可以相应地进行必要的更改。 ### TLP 功能 * 内核笔记本电脑模式和脏缓冲区超时 * 处理器频率调整,包括 “turbo boost”/“turbo core” * 限制最大/最小的 P 状态以控制 CPU 的功耗 * HWP 能源性能提示 * 用于多核/超线程的功率感知进程调度程序 * 处理器性能与节能策略(`x86_energy_perf_policy`) * 硬盘高级电源管理级别(APM)和降速超时(按磁盘) * AHCI 链路电源管理(ALPM)与设备黑名单 * PCIe 活动状态电源管理(PCIe ASPM) * PCI(e) 总线设备的运行时电源管理 * Radeon 图形电源管理(KMS 和 DPM) * Wifi 省电模式 * 关闭驱动器托架中的光盘驱动器 * 音频省电模式 * I/O 调度程序(按磁盘) * USB 自动暂停,支持设备黑名单/白名单(输入设备自动排除) * 在系统启动和关闭时启用或禁用集成的 wifi、蓝牙或 wwan 设备 * 在系统启动时恢复无线电设备状态(从之前的关机时的状态) * 无线电设备向导:在网络连接/断开和停靠/取消停靠时切换无线电 * 禁用 LAN 唤醒 * 挂起/休眠后恢复集成的 WWAN 和蓝牙状态 * 英特尔处理器的动态电源降低 —— 需要内核和 PHC-Patch 支持 * 电池充电阈值 —— 仅限 ThinkPad * 重新校准电池 —— 仅限 ThinkPad ### 如何在 Linux 上安装 TLP TLP 包在大多数发行版官方存储库中都可用,因此,使用发行版的 [包管理器](https://www.2daygeek.com/category/package-management/) 来安装它。 对于 Fedora 系统,使用 [DNF 命令](https://www.2daygeek.com/dnf-command-examples-manage-packages-fedora-system/) 安装 TLP。 ``` $ sudo dnf install tlp tlp-rdw ``` ThinkPad 需要一些附加软件包。 ``` $ sudo dnf install https://download1.rpmfusion.org/free/fedora/rpmfusion-free-release-$(rpm -E %fedora).noarch.rpm $ sudo dnf install http://repo.linrunner.de/fedora/tlp/repos/releases/tlp-release.fc$(rpm -E %fedora).noarch.rpm $ sudo dnf install akmod-tp_smapi akmod-acpi_call kernel-devel ``` 安装 smartmontool 以显示 tlp-stat 中 S.M.A.R.T. 数据。 ``` $ sudo dnf install smartmontools ``` 对于 Debian/Ubuntu 系统,使用 [APT-GET 命令](https://www.2daygeek.com/apt-get-apt-cache-command-examples-manage-packages-debian-ubuntu-systems/) 或 [APT 命令](https://www.2daygeek.com/apt-command-examples-manage-packages-debian-ubuntu-systems/) 安装 TLP。 ``` $ sudo apt install tlp tlp-rdw ``` ThinkPad 需要一些附加软件包。 ``` $ sudo apt-get install tp-smapi-dkms acpi-call-dkms ``` 安装 smartmontool 以显示 tlp-stat 中 S.M.A.R.T. 数据。 ``` $ sudo apt-get install smartmontools ``` 当基于 Ubuntu 的系统的官方软件包过时时,请使用以下 PPA 存储库,该存储库提供最新版本。运行以下命令以使用 PPA 安装 TLP。 ``` $ sudo add-apt-repository ppa:linrunner/tlp $ sudo apt-get update $ sudo apt-get install tlp ``` 对于基于 Arch Linux 的系统,使用 [Pacman 命令](https://www.2daygeek.com/pacman-command-examples-manage-packages-arch-linux-system/) 安装 TLP。 ``` $ sudo pacman -S tlp tlp-rdw ``` ThinkPad 需要一些附加软件包。 ``` $ pacman -S tp_smapi acpi_call ``` 安装 smartmontool 以显示 tlp-stat 中 S.M.A.R.T. 数据。 ``` $ sudo pacman -S smartmontools ``` 对于基于 Arch Linux 的系统,在启动时启用 TLP 和 TLP-Sleep 服务。 ``` $ sudo systemctl enable tlp.service $ sudo systemctl enable tlp-sleep.service ``` 对于基于 Arch Linux 的系统,你还应该屏蔽以下服务以避免冲突,并确保 TLP 的无线电设备切换选项的正确操作。 ``` $ sudo systemctl mask systemd-rfkill.service $ sudo systemctl mask systemd-rfkill.socket ``` 对于 RHEL/CentOS 系统,使用 [YUM 命令](https://www.2daygeek.com/yum-command-examples-manage-packages-rhel-centos-systems/) 安装 TLP。 ``` $ sudo yum install tlp tlp-rdw ``` 安装 smartmontool 以显示 tlp-stat 中 S.M.A.R.T. 数据。 ``` $ sudo yum install smartmontools ``` 对于 openSUSE Leap 系统,使用 [Zypper 命令](https://www.2daygeek.com/zypper-command-examples-manage-packages-opensuse-system/) 安装 TLP。 ``` $ sudo zypper install TLP ``` 安装 smartmontool 以显示 tlp-stat 中 S.M.A.R.T. 数据。 ``` $ sudo zypper install smartmontools ``` 成功安装 TLP 后,使用以下命令启动服务。 ``` $ systemctl start tlp.service ``` ### 使用方法 #### 显示电池信息 ``` $ sudo tlp-stat -b 或 $ sudo tlp-stat --battery ``` ``` --- TLP 1.1 -------------------------------------------- +++ Battery Status /sys/class/power_supply/BAT0/manufacturer = SMP /sys/class/power_supply/BAT0/model_name = L14M4P23 /sys/class/power_supply/BAT0/cycle_count = (not supported) /sys/class/power_supply/BAT0/energy_full_design = 60000 [mWh] /sys/class/power_supply/BAT0/energy_full = 48850 [mWh] /sys/class/power_supply/BAT0/energy_now = 48850 [mWh] /sys/class/power_supply/BAT0/power_now = 0 [mW] /sys/class/power_supply/BAT0/status = Full Charge = 100.0 [%] Capacity = 81.4 [%] ``` #### 显示磁盘信息 ``` $ sudo tlp-stat -d 或 $ sudo tlp-stat --disk ``` ``` --- TLP 1.1 -------------------------------------------- +++ Storage Devices /dev/sda: Model = WDC WD10SPCX-24HWST1 Firmware = 02.01A02 APM Level = 128 Status = active/idle Scheduler = mq-deadline Runtime PM: control = on, autosuspend_delay = (not available) SMART info: 4 Start_Stop_Count = 18787 5 Reallocated_Sector_Ct = 0 9 Power_On_Hours = 606 [h] 12 Power_Cycle_Count = 1792 193 Load_Cycle_Count = 25775 194 Temperature_Celsius = 31 [°C] +++ AHCI Link Power Management (ALPM) /sys/class/scsi_host/host0/link_power_management_policy = med_power_with_dipm /sys/class/scsi_host/host1/link_power_management_policy = med_power_with_dipm /sys/class/scsi_host/host2/link_power_management_policy = med_power_with_dipm /sys/class/scsi_host/host3/link_power_management_policy = med_power_with_dipm +++ AHCI Host Controller Runtime Power Management /sys/bus/pci/devices/0000:00:17.0/ata1/power/control = on /sys/bus/pci/devices/0000:00:17.0/ata2/power/control = on /sys/bus/pci/devices/0000:00:17.0/ata3/power/control = on /sys/bus/pci/devices/0000:00:17.0/ata4/power/control = on ``` #### 显示 PCI 设备信息 ``` $ sudo tlp-stat -e 或 $ sudo tlp-stat --pcie ``` ``` $ sudo tlp-stat -e or $ sudo tlp-stat --pcie --- TLP 1.1 -------------------------------------------- +++ Runtime Power Management Device blacklist = (not configured) Driver blacklist = amdgpu nouveau nvidia radeon pcieport /sys/bus/pci/devices/0000:00:00.0/power/control = auto (0x060000, Host bridge, skl_uncore) /sys/bus/pci/devices/0000:00:01.0/power/control = auto (0x060400, PCI bridge, pcieport) /sys/bus/pci/devices/0000:00:02.0/power/control = auto (0x030000, VGA compatible controller, i915) /sys/bus/pci/devices/0000:00:14.0/power/control = auto (0x0c0330, USB controller, xhci_hcd) ...... ``` #### 显示图形卡信息 ``` $ sudo tlp-stat -g 或 $ sudo tlp-stat --graphics ``` ``` --- TLP 1.1 -------------------------------------------- +++ Intel Graphics /sys/module/i915/parameters/enable_dc = -1 (use per-chip default) /sys/module/i915/parameters/enable_fbc = 1 (enabled) /sys/module/i915/parameters/enable_psr = 0 (disabled) /sys/module/i915/parameters/modeset = -1 (use per-chip default) ``` #### 显示处理器信息 ``` $ sudo tlp-stat -p 或 $ sudo tlp-stat --processor ``` ``` --- TLP 1.1 -------------------------------------------- +++ Processor CPU model = Intel(R) Core(TM) i7-6700HQ CPU @ 2.60GHz /sys/devices/system/cpu/cpu0/cpufreq/scaling_driver = intel_pstate /sys/devices/system/cpu/cpu0/cpufreq/scaling_governor = powersave /sys/devices/system/cpu/cpu0/cpufreq/scaling_available_governors = performance powersave /sys/devices/system/cpu/cpu0/cpufreq/scaling_min_freq = 800000 [kHz] /sys/devices/system/cpu/cpu0/cpufreq/scaling_max_freq = 3500000 [kHz] /sys/devices/system/cpu/cpu0/cpufreq/energy_performance_preference = balance_power /sys/devices/system/cpu/cpu0/cpufreq/energy_performance_available_preferences = default performance balance_performance balance_power power ...... /sys/devices/system/cpu/intel_pstate/min_perf_pct = 22 [%] /sys/devices/system/cpu/intel_pstate/max_perf_pct = 100 [%] /sys/devices/system/cpu/intel_pstate/no_turbo = 0 /sys/devices/system/cpu/intel_pstate/turbo_pct = 33 [%] /sys/devices/system/cpu/intel_pstate/num_pstates = 28 x86_energy_perf_policy: program not installed. /sys/module/workqueue/parameters/power_efficient = Y /proc/sys/kernel/nmi_watchdog = 0 +++ Undervolting PHC kernel not available. ``` #### 显示系统数据信息 ``` $ sudo tlp-stat -s 或 $ sudo tlp-stat --system ``` ``` --- TLP 1.1 -------------------------------------------- +++ System Info System = LENOVO Lenovo ideapad Y700-15ISK 80NV BIOS = CDCN35WW Release = "Manjaro Linux" Kernel = 4.19.6-1-MANJARO #1 SMP PREEMPT Sat Dec 1 12:21:26 UTC 2018 x86_64 /proc/cmdline = BOOT_IMAGE=/boot/vmlinuz-4.19-x86_64 root=UUID=69d9dd18-36be-4631-9ebb-78f05fe3217f rw quiet resume=UUID=a2092b92-af29-4760-8e68-7a201922573b Init system = systemd Boot mode = BIOS (CSM, Legacy) +++ TLP Status State = enabled Last run = 11:04:00 IST, 596 sec(s) ago Mode = battery Power source = battery ``` #### 显示温度和风扇速度信息 ``` $ sudo tlp-stat -t 或 $ sudo tlp-stat --temp ``` ``` --- TLP 1.1 -------------------------------------------- +++ Temperatures CPU temp = 36 [°C] Fan speed = (not available) ``` #### 显示 USB 设备数据信息 ``` $ sudo tlp-stat -u 或 $ sudo tlp-stat --usb ``` ``` --- TLP 1.1 -------------------------------------------- +++ USB Autosuspend = disabled Device whitelist = (not configured) Device blacklist = (not configured) Bluetooth blacklist = disabled Phone blacklist = disabled WWAN blacklist = enabled Bus 002 Device 001 ID 1d6b:0003 control = auto, autosuspend_delay_ms = 0 -- Linux Foundation 3.0 root hub (hub) Bus 001 Device 003 ID 174f:14e8 control = auto, autosuspend_delay_ms = 2000 -- Syntek (uvcvideo) ...... ``` #### 显示警告信息 ``` $ sudo tlp-stat -w 或 $ sudo tlp-stat --warn ``` ``` --- TLP 1.1 -------------------------------------------- No warnings detected. ``` #### 状态报告及配置和所有活动的设置 ``` $ sudo tlp-stat ``` ``` --- TLP 1.1 -------------------------------------------- +++ Configured Settings: /etc/default/tlp TLP_ENABLE=1 TLP_DEFAULT_MODE=AC TLP_PERSISTENT_DEFAULT=0 DISK_IDLE_SECS_ON_AC=0 DISK_IDLE_SECS_ON_BAT=2 MAX_LOST_WORK_SECS_ON_AC=15 MAX_LOST_WORK_SECS_ON_BAT=60 ...... +++ System Info System = LENOVO Lenovo ideapad Y700-15ISK 80NV BIOS = CDCN35WW Release = "Manjaro Linux" Kernel = 4.19.6-1-MANJARO #1 SMP PREEMPT Sat Dec 1 12:21:26 UTC 2018 x86_64 /proc/cmdline = BOOT_IMAGE=/boot/vmlinuz-4.19-x86_64 root=UUID=69d9dd18-36be-4631-9ebb-78f05fe3217f rw quiet resume=UUID=a2092b92-af29-4760-8e68-7a201922573b Init system = systemd Boot mode = BIOS (CSM, Legacy) +++ TLP Status State = enabled Last run = 11:04:00 IST, 684 sec(s) ago Mode = battery Power source = battery +++ Processor CPU model = Intel(R) Core(TM) i7-6700HQ CPU @ 2.60GHz /sys/devices/system/cpu/cpu0/cpufreq/scaling_driver = intel_pstate /sys/devices/system/cpu/cpu0/cpufreq/scaling_governor = powersave /sys/devices/system/cpu/cpu0/cpufreq/scaling_available_governors = performance powersave ...... /sys/devices/system/cpu/intel_pstate/min_perf_pct = 22 [%] /sys/devices/system/cpu/intel_pstate/max_perf_pct = 100 [%] /sys/devices/system/cpu/intel_pstate/no_turbo = 0 /sys/devices/system/cpu/intel_pstate/turbo_pct = 33 [%] /sys/devices/system/cpu/intel_pstate/num_pstates = 28 x86_energy_perf_policy: program not installed. /sys/module/workqueue/parameters/power_efficient = Y /proc/sys/kernel/nmi_watchdog = 0 +++ Undervolting PHC kernel not available. +++ Temperatures CPU temp = 42 [°C] Fan speed = (not available) +++ File System /proc/sys/vm/laptop_mode = 2 /proc/sys/vm/dirty_writeback_centisecs = 6000 /proc/sys/vm/dirty_expire_centisecs = 6000 /proc/sys/vm/dirty_ratio = 20 /proc/sys/vm/dirty_background_ratio = 10 +++ Storage Devices /dev/sda: Model = WDC WD10SPCX-24HWST1 Firmware = 02.01A02 APM Level = 128 Status = active/idle Scheduler = mq-deadline Runtime PM: control = on, autosuspend_delay = (not available) SMART info: 4 Start_Stop_Count = 18787 5 Reallocated_Sector_Ct = 0 9 Power_On_Hours = 606 [h] 12 Power_Cycle_Count = 1792 193 Load_Cycle_Count = 25777 194 Temperature_Celsius = 31 [°C] +++ AHCI Link Power Management (ALPM) /sys/class/scsi_host/host0/link_power_management_policy = med_power_with_dipm /sys/class/scsi_host/host1/link_power_management_policy = med_power_with_dipm /sys/class/scsi_host/host2/link_power_management_policy = med_power_with_dipm /sys/class/scsi_host/host3/link_power_management_policy = med_power_with_dipm +++ AHCI Host Controller Runtime Power Management /sys/bus/pci/devices/0000:00:17.0/ata1/power/control = on /sys/bus/pci/devices/0000:00:17.0/ata2/power/control = on /sys/bus/pci/devices/0000:00:17.0/ata3/power/control = on /sys/bus/pci/devices/0000:00:17.0/ata4/power/control = on +++ PCIe Active State Power Management /sys/module/pcie_aspm/parameters/policy = powersave +++ Intel Graphics /sys/module/i915/parameters/enable_dc = -1 (use per-chip default) /sys/module/i915/parameters/enable_fbc = 1 (enabled) /sys/module/i915/parameters/enable_psr = 0 (disabled) /sys/module/i915/parameters/modeset = -1 (use per-chip default) +++ Wireless bluetooth = on wifi = on wwan = none (no device) hci0(btusb) : bluetooth, not connected wlp8s0(iwlwifi) : wifi, connected, power management = on +++ Audio /sys/module/snd_hda_intel/parameters/power_save = 1 /sys/module/snd_hda_intel/parameters/power_save_controller = Y +++ Runtime Power Management Device blacklist = (not configured) Driver blacklist = amdgpu nouveau nvidia radeon pcieport /sys/bus/pci/devices/0000:00:00.0/power/control = auto (0x060000, Host bridge, skl_uncore) /sys/bus/pci/devices/0000:00:01.0/power/control = auto (0x060400, PCI bridge, pcieport) /sys/bus/pci/devices/0000:00:02.0/power/control = auto (0x030000, VGA compatible controller, i915) ...... +++ USB Autosuspend = disabled Device whitelist = (not configured) Device blacklist = (not configured) Bluetooth blacklist = disabled Phone blacklist = disabled WWAN blacklist = enabled Bus 002 Device 001 ID 1d6b:0003 control = auto, autosuspend_delay_ms = 0 -- Linux Foundation 3.0 root hub (hub) Bus 001 Device 003 ID 174f:14e8 control = auto, autosuspend_delay_ms = 2000 -- Syntek (uvcvideo) Bus 001 Device 002 ID 17ef:6053 control = on, autosuspend_delay_ms = 2000 -- Lenovo (usbhid) Bus 001 Device 004 ID 8087:0a2b control = auto, autosuspend_delay_ms = 2000 -- Intel Corp. (btusb) Bus 001 Device 001 ID 1d6b:0002 control = auto, autosuspend_delay_ms = 0 -- Linux Foundation 2.0 root hub (hub) +++ Battery Status /sys/class/power_supply/BAT0/manufacturer = SMP /sys/class/power_supply/BAT0/model_name = L14M4P23 /sys/class/power_supply/BAT0/cycle_count = (not supported) /sys/class/power_supply/BAT0/energy_full_design = 60000 [mWh] /sys/class/power_supply/BAT0/energy_full = 51690 [mWh] /sys/class/power_supply/BAT0/energy_now = 50140 [mWh] /sys/class/power_supply/BAT0/power_now = 12185 [mW] /sys/class/power_supply/BAT0/status = Discharging Charge = 97.0 [%] Capacity = 86.2 [%] ``` --- via: <https://www.2daygeek.com/tlp-increase-optimize-linux-laptop-battery-life/> 作者:[Magesh Maruthamuthu](https://www.2daygeek.com/author/magesh/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[wxy](https://github.com/wxy) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
每日安全资讯:Mozilla 资助开发更有效的在 Firefox 中整合 Tor
安华金和
学术界正在研究替代的协议架构和路线选择协议,如 Tor-over-QUIC、DTLS 和 Walking Onions。
/data/attachment/album/201905/13/101826yrkdvveetmrt2vh8.jpg.thumb.jpg
/data/attachment/album/201905/13/101826yrkdvveetmrt2vh8.jpg
true
false
false
false
[ "Firefox", "Tor" ]
每日安全资讯
{ "viewnum": 4080, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
学术界正在研究替代的协议架构和路线选择协议,如 Tor-over-QUIC、DTLS 和 Walking Onions。
2019-05-13T10:20:00
2019-05-13T10:20:00
10,849
/article-10849-1.html
根据上个月公布的 Research Grants 2019H1,Mozilla 正寻求资助开发在 Firefox 中更有效的整合 Tor 的方法。目前 Tor 能工作在 Firefox 浏览器上,Tor 浏览器就是证据,但这种整合方法拖慢了浏览器的速度。Mozilla 认为,要让更多的用户使用 Tor 匿名网络需要解决目前 Tor 存在的效率低下的问题。学术界正在研究替代的协议架构和路线选择协议,如 Tor-over-QUIC、DTLS 和 Walking Onions。但替代的协议架构和路线选择协议是否能带来可接受的 Tor 性能增强,是否能保留 Tor 的特性,是否能大规模部署 Tor,如何全面整合 Tor 和 Firefox?Mozilla 愿意在这些方面提供研究资金。 ![](/data/attachment/album/201905/13/101826yrkdvveetmrt2vh8.jpg) 来源:solidot.org ### 更多资讯 ##### 杠上美国反病毒公司:俄罗斯黑客要卖它们的源代码 5月12日,Ars technica称,Fxmsp是一个破坏私人企业和政府信息的俄罗斯组织,自3月份以来,Fxmsp在网络犯罪论坛上声称持有了从美国三家主要防病毒公司软件开发相关的独家源代码。 来源: 雷锋网 详情: <http://t.cn/EK215J0> ##### 错误更新导致荷兰数百名嫌犯佩戴的监控踝带短暂失联 一个有缺陷的 Windows 更新或许会令人烦恼,但还不足以引起人们的恐慌,但是如果是数百名被警方监控的嫌犯或者有前科的罪犯突然失控呢?本周四佩戴在嫌犯腿部的踝关节监视器在更新中出现问题,导致设备和警察之间的通信被中断。 来源: cnBeta.COM 详情: <http://t.cn/EK21Vcx> ##### 为了挖掘加密货币 两个黑客组织争夺 Linux 服务器 Rocke 和 Pascha 两个从事门罗币挖掘业务的黑客组织正在努力控制尽可能多的 Linux 云环境,以便挖掘加密货币。去年年底,自新黑客组织 Pacha 崛起以来,这场争夺战就一直秘密进行。这两个组织都进行了大规模扫描来寻找开放或未打补丁的云服务和服务器,然后用基于 Linux 的多功能恶意软件感染它们。 来源: 雷锋网 详情: <http://t.cn/EK21Mwm> ##### 5 月全球 Web 服务器报告 微软减少 1.12 亿站点 Netcraft 发布了 2019 年 5 月份全球 Web 服务器调查报告。Netcraft 公司官网每月公布的 Web Server Survey 是当前人们了解全球网站数量以及服务器市场分额情况的主要参考依据。5 月份报告共收录了 1 326 664 693 个站点数据,比上个月减少了 1.19 亿个,其中活跃站点有 187 976 419 个 来源: 开源中国 详情: <http://t.cn/EK21Jpv> (信息来源于网络,安华金和搜集整理)
使用 Python 和 Pygame 模块构建一个游戏框架
Seth Kenlon
https://opensource.com/article/17/12/game-framework-python
这系列的第一篇通过创建一个简单的骰子游戏来探究 Python。现在是来从零制作你自己的游戏的时间。
/data/attachment/album/201905/13/215141pkn334yyuqeq4qzu.png.thumb.jpg
/data/attachment/album/201905/13/215141pkn334yyuqeq4qzu.png
true
false
true
lujun9972
robsean
wxy
false
[ "Python", "Pygame" ]
软件开发
{ "viewnum": 9528, "commentnum": 1, "favtimes": 1, "sharetimes": 0, "likes": 0 }
[ { "postip": "59.41.160.153", "message": "原文:backdrop = pygame.image.load(os.path.join('images','stage.png').convert())<br />\r\n<br />\r\n应修改为:<br />\r\nbackdrop = pygame.image.load(os.path.join('images','stage.png')).convert()", "username": "ewef [Chrome 80.0|Windows 10]", "date": "2020-03-04T13:09:17" } ]
[ { "raid": 9071, "displayorder": 0 }, { "raid": 10858, "displayorder": 0 } ]
这系列的第一篇通过创建一个简单的骰子游戏来探究 Python。现在是来从零制作你自己的游戏的时间。
2019-05-13T21:51:36
2019-05-13T21:51:36
10,850
/article-10850-1.html
> > 这系列的第一篇通过创建一个简单的骰子游戏来探究 Python。现在是来从零制作你自己的游戏的时间。 > > > ![](/data/attachment/album/201905/13/215141pkn334yyuqeq4qzu.png) 在我的[这系列的第一篇文章](/article-9071-1.html) 中, 我已经讲解如何使用 Python 创建一个简单的、基于文本的骰子游戏。这次,我将展示如何使用 Python 模块 Pygame 来创建一个图形化游戏。它将需要几篇文章才能来得到一个确实做成一些东西的游戏,但是到这系列的结尾,你将更好地理解如何查找和学习新的 Python 模块和如何从其基础上构建一个应用程序。 在开始前,你必须安装 [Pygame](http://www.pygame.org/wiki/about)。 ### 安装新的 Python 模块 有几种方法来安装 Python 模块,但是最通用的两个是: * 从你的发行版的软件存储库 * 使用 Python 的软件包管理器 `pip` 两个方法都工作的很好,并且每一个都有它自己的一套优势。如果你是在 Linux 或 BSD 上开发,可以利用你的发行版的软件存储库来自动和及时地更新。 然而,使用 Python 的内置软件包管理器可以给予你控制更新模块时间的能力。而且,它不是特定于操作系统的,这意味着,即使当你不是在你常用的开发机器上时,你也可以使用它。`pip` 的其它的优势是允许本地安装模块,如果你没有正在使用的计算机的管理权限,这是有用的。 ### 使用 pip 如果 Python 和 Python3 都安装在你的系统上,你想使用的命令很可能是 `pip3`,它用来区分 Python 2.x 的 `pip` 的命令。如果你不确定,先尝试 `pip3`。 `pip` 命令有些像大多数 Linux 软件包管理器一样工作。你可以使用 `search` 搜索 Python 模块,然后使用 `install` 安装它们。如果你没有你正在使用的计算机的管理权限来安装软件,你可以使用 `--user` 选项来仅仅安装模块到你的家目录。 ``` $ pip3 search pygame [...] Pygame (1.9.3) - Python Game Development sge-pygame (1.5) - A 2-D game engine for Python pygame_camera (0.1.1) - A Camera lib for PyGame pygame_cffi (0.2.1) - A cffi-based SDL wrapper that copies the pygame API. [...] $ pip3 install Pygame --user ``` Pygame 是一个 Python 模块,这意味着它仅仅是一套可以使用在你的 Python 程序中的库。换句话说,它不是一个像 [IDLE](https://en.wikipedia.org/wiki/IDLE) 或 [Ninja-IDE](http://ninja-ide.org/) 一样可以让你启动的程序。 ### Pygame 新手入门 一个电子游戏需要一个背景设定:故事发生的地点。在 Python 中,有两种不同的方法来创建你的故事背景: * 设置一种背景颜色 * 设置一张背景图片 你的背景仅是一张图片或一种颜色。你的电子游戏人物不能与在背景中的东西相互作用,因此,不要在后面放置一些太重要的东西。它仅仅是设置装饰。 ### 设置你的 Pygame 脚本 要开始一个新的 Pygame 工程,先在计算机上创建一个文件夹。游戏的全部文件被放在这个目录中。在你的工程文件夹内部保持所需要的所有的文件来运行游戏是极其重要的。 ![](/data/attachment/album/201905/13/215148oae9wya97w03haho.jpg) 一个 Python 脚本以文件类型、你的姓名,和你想使用的许可证开始。使用一个开放源码许可证,以便你的朋友可以改善你的游戏并与你一起分享他们的更改: ``` #!/usr/bin/env python3 # by Seth Kenlon ## GPLv3 # This program is free software: you can redistribute it and/or # modify it under the terms of the GNU General Public License as # published by the Free Software Foundation, either version 3 of the # License, or (at your option) any later version. # # This program is distributed in the hope that it will be useful, but # WITHOUT ANY WARRANTY; without even the implied warranty of # MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the GNU # General Public License for more details. # # You should have received a copy of the GNU General Public License # along with this program. If not, see <http://www.gnu.org/licenses/>. ``` 然后,你告诉 Python 你想使用的模块。一些模块是常见的 Python 库,当然,你想包括一个你刚刚安装的 Pygame 模块。 ``` import pygame # 加载 pygame 关键字 import sys # 让 python 使用你的文件系统 import os # 帮助 python 识别你的操作系统 ``` 由于你将用这个脚本文件做很多工作,在文件中分成段落是有帮助的,以便你知道在哪里放代码。你可以使用块注释来做这些,这些注释仅在看你的源文件代码时是可见的。在你的代码中创建三个块。 ``` ''' Objects ''' # 在这里放置 Python 类和函数 ''' Setup ''' # 在这里放置一次性的运行代码 ''' Main Loop ''' # 在这里放置游戏的循环代码指令 ``` 接下来,为你的游戏设置窗口大小。注意,不是每一个人都有大计算机屏幕,所以,最好使用一个适合大多数人的计算机的屏幕大小。 这里有一个方法来切换全屏模式,很多现代电子游戏都会这样做,但是,由于你刚刚开始,简单起见仅设置一个大小即可。 ``` ''' Setup ''' worldx = 960 worldy = 720 ``` 在脚本中使用 Pygame 引擎前,你需要一些基本的设置。你必须设置帧频,启动它的内部时钟,然后开始 (`init`)Pygame 。 ``` fps = 40 # 帧频 ani = 4 # 动画循环 clock = pygame.time.Clock() pygame.init() ``` 现在你可以设置你的背景。 ### 设置背景 在你继续前,打开一个图形应用程序,为你的游戏世界创建一个背景。在你的工程目录中的 `images` 文件夹内部保存它为 `stage.png` 。 这里有一些你可以使用的自由图形应用程序。 * [Krita](http://krita.org) 是一个专业级绘图素材模拟器,它可以被用于创建漂亮的图片。如果你对创建电子游戏艺术作品非常感兴趣,你甚至可以购买一系列的[游戏艺术作品教程](https://gumroad.com/l/krita-game-art-tutorial-1)。 * [Pinta](https://pinta-project.com/pintaproject/pinta/releases) 是一个基本的,易于学习的绘图应用程序。 * [Inkscape](http://inkscape.org) 是一个矢量图形应用程序。使用它来绘制形状、线、样条曲线和贝塞尔曲线。 你的图像不必很复杂,你可以以后回去更改它。一旦有了它,在你文件的 Setup 部分添加这些代码: ``` world = pygame.display.set_mode([worldx,worldy]) backdrop = pygame.image.load(os.path.join('images','stage.png').convert()) backdropbox = world.get_rect() ``` 如果你仅仅用一种颜色来填充你的游戏的背景,你需要做的就是: ``` world = pygame.display.set_mode([worldx,worldy]) ``` 你也必须定义颜色以使用。在你的 Setup 部分,使用红、绿、蓝 (RGB) 的值来创建一些颜色的定义。 ``` ''' Setup ''' BLUE = (25,25,200) BLACK = (23,23,23 ) WHITE = (254,254,254) ``` 至此,你理论上可以启动你的游戏了。问题是,它可能仅持续了一毫秒。 为证明这一点,保存你的文件为 `your-name_game.py`(用你真实的名称替换 `your-name`)。然后启动你的游戏。 如果你正在使用 IDLE,通过选择来自 “Run” 菜单的 “Run Module” 来运行你的游戏。 如果你正在使用 Ninja,在左侧按钮条中单击 “Run file” 按钮。 ![](/data/attachment/album/201905/13/215152bp4rcerge07jll4g.png) 你也可以直接从一个 Unix 终端或一个 Windows 命令提示符中运行一个 Python 脚本。 ``` $ python3 ./your-name_game.py ``` 如果你正在使用 Windows,使用这命令: ``` py.exe your-name_game.py ``` 启动它,不过不要期望很多,因为你的游戏现在仅仅持续几毫秒。你可以在下一部分中修复它。 ### 循环 除非另有说明,一个 Python 脚本运行一次并仅一次。近来计算机的运行速度是非常快的,所以你的 Python 脚本运行时间会少于 1 秒钟。 为强制你的游戏来处于足够长的打开和活跃状态来让人看到它(更不要说玩它),使用一个 `while` 循环。为使你的游戏保存打开,你可以设置一个变量为一些值,然后告诉一个 `while` 循环只要变量保持未更改则一直保存循环。 这经常被称为一个“主循环”,你可以使用术语 `main` 作为你的变量。在你的 Setup 部分的任意位置添加代码: ``` main = True ``` 在主循环期间,使用 Pygame 关键字来检查键盘上的按键是否已经被按下或释放。添加这些代码到你的主循环部分: ``` ''' Main loop ''' while main == True: for event in pygame.event.get(): if event.type == pygame.QUIT: pygame.quit(); sys.exit() main = False if event.type == pygame.KEYDOWN: if event.key == ord('q'): pygame.quit() sys.exit() main = False ``` 也是在你的循环中,刷新你世界的背景。 如果你使用一个图片作为背景: ``` world.blit(backdrop, backdropbox) ``` 如果你使用一种颜色作为背景: ``` world.fill(BLUE) ``` 最后,告诉 Pygame 来重新刷新屏幕上的所有内容,并推进游戏的内部时钟。 ``` pygame.display.flip() clock.tick(fps) ``` 保存你的文件,再次运行它来查看你曾经创建的最无趣的游戏。 退出游戏,在你的键盘上按 `q` 键。 在这系列的 [下一篇文章](https://opensource.com/article/17/12/program-game-python-part-3-spawning-player) 中,我将向你演示,如何加强你当前空空如也的游戏世界,所以,继续学习并创建一些将要使用的图形! --- via: <https://opensource.com/article/17/12/game-framework-python> 作者:[Seth Kenlon](https://opensource.com/users/seth) 选题:[lujun9972](https://github.com/lujun9972) 译者:[robsean](https://github.com/robsean) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
如何在 Linux 中创建 SSH 别名
Sk
https://www.ostechnix.com/how-to-create-ssh-alias-in-linux/
你可以通过 SSH 为频繁访问的系统创建 SSH 别名,这样你就不必记住所有不同的用户名、主机名、SSH 端口号和 IP 地址等。
/data/attachment/album/201905/13/222910h2uwy06um3byr68r.jpg.thumb.jpg
/data/attachment/album/201905/13/222910h2uwy06um3byr68r.jpg
true
false
true
lujun9972
MjSeven
wxy
false
[ "SSH", "别名" ]
技术
{ "viewnum": 11519, "commentnum": 0, "favtimes": 2, "sharetimes": 0, "likes": 0 }
[]
[]
你可以通过 SSH 为频繁访问的系统创建 SSH 别名,这样你就不必记住所有不同的用户名、主机名、SSH 端口号和 IP 地址等。
2019-05-13T22:29:35
2019-05-13T22:29:35
10,851
/article-10851-1.html
![](/data/attachment/album/201905/13/222910h2uwy06um3byr68r.jpg) 如果你经常通过 SSH 访问许多不同的远程系统,这个技巧将为你节省一些时间。你可以通过 SSH 为频繁访问的系统创建 SSH 别名,这样你就不必记住所有不同的用户名、主机名、SSH 端口号和 IP 地址等。此外,它避免了在 SSH 到 Linux 服务器时重复输入相同的用户名、主机名、IP 地址、端口号。 ### 在 Linux 中创建 SSH 别名 在我知道这个技巧之前,我通常使用以下任意一种方式通过 SSH 连接到远程系统。 使用 IP 地址: ``` $ ssh 192.168.225.22 ``` 或使用端口号、用户名和 IP 地址: ``` $ ssh -p 22 sk@192.168.225.22 ``` 或使用端口号、用户名和主机名: ``` $ ssh -p 22 sk@server.example.com ``` 这里 * `22` 是端口号, * `sk` 是远程系统的用户名, * `192.168.225.22` 是我远程系统的 IP, * `server.example.com` 是远程系统的主机名。 我相信大多数 Linux 新手和(或一些)管理员都会以这种方式通过 SSH 连接到远程系统。但是,如果你通过 SSH 连接到多个不同的系统,记住所有主机名或 IP 地址,还有用户名是困难的,除非你将它们写在纸上或者将其保存在文本文件中。别担心!这可以通过为 SSH 连接创建别名(或快捷方式)轻松解决。 我们可以用两种方法为 SSH 命令创建别名。 #### 方法 1 – 使用 SSH 配置文件 这是我创建别名的首选方法。 我们可以使用 SSH 默认配置文件来创建 SSH 别名。为此,编辑 `~/.ssh/config` 文件(如果此文件不存在,只需创建一个): ``` $ vi ~/.ssh/config ``` 添加所有远程主机的详细信息,如下所示: ``` Host webserver HostName 192.168.225.22 User sk Host dns HostName server.example.com User root Host dhcp HostName 192.168.225.25 User ostechnix Port 2233 ``` ![](/data/attachment/album/201905/13/222936jr7okl7907i7eo8o.png) *使用 SSH 配置文件在 Linux 中创建 SSH 别名* 将 `Host`、`Hostname`、`User` 和 `Port` 配置的值替换为你自己的值。添加所有远程主机的详细信息后,保存并退出该文件。 现在你可以使用以下命令通过 SSH 进入系统: ``` $ ssh webserver $ ssh dns $ ssh dhcp ``` 就是这么简单! 看看下面的截图。 ![](/data/attachment/album/201905/13/222937vzymmddmkzdfz2da.png) *使用 SSH 别名访问远程系统* 看到了吗?我只使用别名(例如 `webserver`)来访问 IP 地址为 `192.168.225.22` 的远程系统。 请注意,这只使用于当前用户。如果要为所有用户(系统范围内)提供别名,请在 `/etc/ssh/ssh_config` 文件中添加以上行。 你还可以在 SSH 配置文件中添加许多其他内容。例如,如果你[已配置基于 SSH 密钥的身份验证](https://www.ostechnix.com/configure-ssh-key-based-authentication-linux/),说明 SSH 密钥文件的位置,如下所示: ``` Host ubuntu HostName 192.168.225.50 User senthil IdentityFIle ~/.ssh/id_rsa_remotesystem ``` 确保已使用你自己的值替换主机名、用户名和 SSH 密钥文件路径。 现在使用以下命令连接到远程服务器: ``` $ ssh ubuntu ``` 这样,你可以添加希望通过 SSH 访问的任意多台远程主机,并使用别名快速访问它们。 #### 方法 2 – 使用 Bash 别名 这是创建 SSH 别名的一种应急变通的方法,可以加快通信的速度。你可以使用 [alias 命令](https://www.ostechnix.com/the-alias-and-unalias-commands-explained-with-examples/)使这项任务更容易。 打开 `~/.bashrc` 或者 `~/.bash_profile` 文件: ``` alias webserver='ssh sk@server.example.com' alias dns='ssh sk@server.example.com' alias dhcp='ssh sk@server.example.com -p 2233' alias ubuntu='ssh sk@server.example.com -i ~/.ssh/id_rsa_remotesystem' ``` 再次确保你已使用自己的值替换主机、主机名、端口号和 IP 地址。保存文件并退出。 然后,使用命令应用更改: ``` $ source ~/.bashrc ``` 或者 ``` $ source ~/.bash_profile ``` 在此方法中,你甚至不需要使用 `ssh 别名` 命令。相反,只需使用别名,如下所示。 ``` $ webserver $ dns $ dhcp $ ubuntu ``` ![](/data/attachment/album/201905/13/222939ru43vahbbbrbbhgd.png) 这两种方法非常简单,但对于经常通过 SSH 连接到多个不同系统的人来说非常有用,而且非常方便。使用适合你的上述任何一种方法,通过 SSH 快速访问远程 Linux 系统。 建议阅读: * [允许或拒绝 SSH 访问 Linux 中的特定用户或组](https://www.ostechnix.com/allow-deny-ssh-access-particular-user-group-linux/) * [如何在 Linux 上 SSH 到特定目录](https://www.ostechnix.com/how-to-ssh-into-a-particular-directory-on-linux/) * [如何在 Linux 中断开 SSH 会话](https://www.ostechnix.com/how-to-stop-ssh-session-from-disconnecting-in-linux/) * [4 种方式在退出 SSH 会话后保持命令运行](https://www.ostechnix.com/4-ways-keep-command-running-log-ssh-session/) * [SSLH – 共享相同端口的 HTTPS 和 SSH](https://www.ostechnix.com/sslh-share-port-https-ssh/) 目前这就是全部了,希望它对你有帮助。更多好东西要来了,敬请关注! 干杯! --- via: <https://www.ostechnix.com/how-to-create-ssh-alias-in-linux/> 作者:[sk](https://www.ostechnix.com/author/sk/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[MjSeven](https://github.com/MjSeven) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
使用 Python 进行社交媒体情感分析入门
Michael Mccune
https://opensource.com/article/19/4/social-media-sentiment-analysis-python
学习自然语言处理的基础知识并探索两个有用的 Python 包。
/data/attachment/album/201905/14/002943t6udxhhcq1zoxu15.jpg.thumb.jpg
/data/attachment/album/201905/14/002943t6udxhhcq1zoxu15.jpg
true
false
true
lujun9972
MjSeven
wxy
false
[ "情感", "NLP" ]
软件开发
{ "viewnum": 7030, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[ { "raid": 10867, "displayorder": 0 } ]
学习自然语言处理的基础知识并探索两个有用的 Python 包。
2019-05-14T00:30:14
2019-05-14T00:30:14
10,852
/article-10852-1.html
> > 学习自然语言处理的基础知识并探索两个有用的 Python 包。 > > > ![](/data/attachment/album/201905/14/002943t6udxhhcq1zoxu15.jpg) 自然语言处理(NLP)是机器学习的一种,它解决了口语或书面语言和计算机辅助分析这些语言之间的相关性。日常生活中我们经历了无数的 NLP 创新,从写作帮助和建议到实时语音翻译,还有口译。 本文研究了 NLP 的一个特定领域:情感分析。重点是确定输入语言的积极、消极或中性性质。本部分将解释 NLP 和情感分析的背景,并探讨两个开源的 Python 包。[第 2 部分](https://opensource.com/article/19/4/social-media-sentiment-analysis-python-part-2)将演示如何开始构建自己的可扩展情感分析服务。 在学习情感分析时,对 NLP 有一个大体了解是有帮助的。本文不会深入研究数学本质。相反,我们的目标是阐明 NLP 中的关键概念,这些概念对于将这些方法实际结合到你的解决方案中至关重要。 ### 自然语言和文本数据 合理的起点是从定义开始:“什么是自然语言?”它是我们人类相互交流的方式,沟通的主要方式是口语和文字。我们可以更进一步,只关注文本交流。毕竟,生活在 Siri、Alexa 等无处不在的时代,我们知道语音是一组与文本无关的计算。 ### 数据前景和挑战 我们只考虑使用文本数据,我们可以对语言和文本做什么呢?首先是语言,特别是英语,除了规则还有很多例外,含义的多样性和语境差异,这些都可能使人类口译员感到困惑,更不用说计算机翻译了。在小学,我们学习文章和标点符号,通过讲母语,我们获得了寻找直觉上表示唯一意义的词的能力。比如,出现诸如 “a”、“the” 和 “or” 之类的文章,它们在 NLP 中被称为*停止词*,因为传统上 NLP 算法是在一个序列中找到这些词时意味着搜索停止。 由于我们的目标是自动将文本分类为情感类,因此我们需要一种以计算方式处理文本数据的方法。因此,我们必须考虑如何向机器表示文本数据。众所周知,利用和解释语言的规则很复杂,输入文本的大小和结构可能会有很大差异。我们需要将文本数据转换为数字数据,这是机器和数学的首选方式。这种转变属于*特征提取*的范畴。 在提取输入文本数据的数字表示形式后,一个改进可能是:给定一个文本输入体,为上面列出的文章确定一组向量统计数据,并根据这些数据对文档进行分类。例如,过多的副词可能会使撰稿人感到愤怒,或者过度使用停止词可能有助于识别带有内容填充的学期论文。诚然,这可能与我们情感分析的目标没有太大关系。 ### 词袋 当你评估一个文本陈述是积极还是消极的时候,你使用哪些上下文来评估它的极性?(例如,文本中是否具有积极的、消极的或中性的情感)一种方式是隐含形容词:被称为 “disgusting”(恶心) 的东西被认为是消极的,但如果同样的东西被称为 “beautiful”(漂亮),你会认为它是积极的。从定义上讲,俗语给人一种熟悉感,通常是积极的,而脏话可能是敌意的表现。文本数据也可以包括表情符号,它带有固定的情感。 理解单个单词的极性影响为文本的<ruby> <a href="https://en.wikipedia.org/wiki/Bag-of-words_model"> 词袋 </a> <rt> bag-of-words </rt></ruby>(BoW)模型提供了基础。它分析一组单词或词汇表,并提取关于这些单词在输入文本中是否存在的度量。词汇表是通过处理已知极性的文本形成称为*标记的训练数据*。从这组标记数据中提取特征,然后分析特征之间的关系,并将标记与数据关联起来。 “词袋”这个名称说明了它的用途:即不考虑空间位置或上下文的的单个词。词汇表通常是由训练集中出现的所有单词构建的,训练后往往会被修剪。如果在训练之前没有清理停止词,那么停止词会因为其高频率和低语境而被移除。很少使用的单词也可以删除,因为缺乏为一般输入实例提供的信息。 但是,重要的是要注意,你可以(并且应该)进一步考虑单词在单个训练数据实例之外的情形,这称为<ruby> <a href="https://en.wikipedia.org/wiki/Tf%E2%80%93idf#Term_frequency"> 词频 </a> <rt> term frequency </rt></ruby>(TF)。你还应该考虑输入数据在所有训练实例中的单词计数,通常,出现在所有文档中的低频词更重要,这被称为<ruby> <a href="https://en.wikipedia.org/wiki/Tf%E2%80%93idf#Inverse_document_frequency"> 逆文本频率指数 </a> <rt> inverse document frequency </rt></ruby>(IDF)。这些指标一定会在本主题系列的其他文章和软件包中提及,因此了解它们会有所帮助。 词袋在许多文档分类应用程序中很有用。然而,在情感分析中,当缺乏情境意识的问题被利用时,事情就可以解决。考虑以下句子: * 我们不喜欢这场战争。 * 我讨厌下雨天,好事是今天是晴天。 * 这不是生死攸关的问题。 这些短语的情感对于人类口译员来说是有难度的,而且通过严格关注单个词汇的实例,对于机器翻译来说也是困难的。 在 NLP 中也可以使用称为 “n-grams” 的单词分组。一个二元组考虑两个相邻单词组成的组而不是(或除了)单个词袋。这应该可以缓解诸如上述“不喜欢”之类的情况,但由于缺乏语境意思,它仍然是个问题。此外,在上面的第二句中,下半句的情感语境可以被理解为否定前半部分。因此,这种方法中也会丢失上下文线索的空间局部性。从实用角度来看,使问题复杂化的是从给定输入文本中提取的特征的稀疏性。对于一个完整的大型词汇表,每个单词都有一个计数,可以将其视为一个整数向量。大多数文档的向量中都有大量的零计数向量,这给操作增加了不必要的空间和时间复杂度。虽然已经提出了许多用于降低这种复杂性的简便方法,但它仍然是一个问题。 ### 词嵌入 <ruby> 词嵌入 <rt> Word embedding </rt></ruby>是一种分布式表示,它允许具有相似含义的单词具有相似的表示。这是基于使用实值向量来与它们周围相关联。重点在于使用单词的方式,而不仅仅是它们的存在与否。此外,词嵌入的一个巨大实用优势是它们关注于密集向量。通过摆脱具有相应数量的零值向量元素的单词计数模型,词嵌入在时间和存储方面提供了一个更有效的计算范例。 以下是两个优秀的词嵌入方法。 #### Word2vec 第一个是 [Word2vec](https://en.wikipedia.org/wiki/Word2vec),它是由 Google 开发的。随着你对 NLP 和情绪分析研究的深入,你可能会看到这种嵌入方法。它要么使用一个<ruby> 连续的词袋 <rt> continuous bag of words </rt></ruby>(CBOW),要么使用一个连续 skip-gram 模型。在 CBOW 中,一个单词的上下文是在训练中根据围绕它的单词来学习的。连续 skip-gram 学习倾向于围绕给定的单词学习单词。虽然这可能超出了你需要解决的问题,但是如果你曾经面对必须生成自己的词嵌入情况,那么 Word2vec 的作者就提倡使用 CBOW 方法来提高速度并评估频繁的单词,而 skip-gram 方法更适合嵌入稀有单词更重要的嵌入。 #### GloVe 第二个是<ruby> <a href="https://en.wikipedia.org/wiki/GloVe_(machine_learning)"> 用于词表示的全局向量 </a> <rt> Global Vectors for Word Representation </rt></ruby>(GloVe),它是斯坦福大学开发的。它是 Word2vec 方法的扩展,试图通过将经典的全局文本统计特征提取获得的信息与 Word2vec 确定的本地上下文信息相结合。实际上,在一些应用程序中,GloVe 性能优于 Word2vec,而在另一些应用程序中则不如 Word2vec。最终,用于词嵌入的目标数据集将决定哪种方法最优。因此,最好了解它们的存在性和高级机制,因为你很可能会遇到它们。 #### 创建和使用词嵌入 最后,知道如何获得词嵌入是有用的。在第 2 部分中,你将看到我们通过利用社区中其他人的实质性工作,站到了巨人的肩膀上。这是获取词嵌入的一种方法:即使用现有的经过训练和验证的模型。实际上,有无数的模型适用于英语和其他语言,一定会有一种模型可以满足你的应用程序,让你开箱即用! 如果没有的话,就开发工作而言,另一个极端是培训你自己的独立模型,而不考虑你的应用程序。实质上,你将获得大量标记的训练数据,并可能使用上述方法之一来训练模型。即使这样,你仍然只是在理解你输入文本数据。然后,你需要为你应用程序开发一个特定的模型(例如,分析软件版本控制消息中的情感价值),这反过来又需要自己的时间和精力。 你还可以对针对你的应用程序的数据训练一个词嵌入,虽然这可以减少时间和精力,但这个词嵌入将是特定于应用程序的,这将会降低它的可重用性。 ### 可用的工具选项 考虑到所需的大量时间和计算能力,你可能想知道如何才能找到解决问题的方法。的确,开发可靠模型的复杂性可能令人望而生畏。但是,有一个好消息:已经有许多经过验证的模型、工具和软件库可以为我们提供所需的大部分内容。我们将重点关注 [Python](https://www.python.org/),因为它为这些应用程序提供了大量方便的工具。 #### SpaCy [SpaCy](https://pypi.org/project/spacy/) 提供了许多用于解析输入文本数据和提取特征的语言模型。它经过了高度优化,并被誉为同类中最快的库。最棒的是,它是开源的!SpaCy 会执行标识化、词性分类和依赖项注释。它包含了用于执行此功能的词嵌入模型,还有用于为超过 46 种语言的其他特征提取操作。在本系列的第二篇文章中,你将看到它如何用于文本分析和特征提取。 #### vaderSentiment [vaderSentiment](https://pypi.org/project/vaderSentiment/) 包提供了积极、消极和中性情绪的衡量标准。正如 [原论文](http://comp.social.gatech.edu/papers/icwsm14.vader.hutto.pdf) 的标题(《VADER:一个基于规则的社交媒体文本情感分析模型》)所示,这些模型是专门为社交媒体文本数据开发和调整的。VADER 接受了一组完整的人类标记过的数据的训练,包括常见的表情符号、UTF-8 编码的表情符号以及口语术语和缩写(例如 meh、lol、sux)。 对于给定的输入文本数据,vaderSentiment 返回一个极性分数百分比的三元组。它还提供了一个单个的评分标准,称为 *vaderSentiment 复合指标*。这是一个在 `[-1, 1]` 范围内的实值,其中对于分值大于 `0.05` 的情绪被认为是积极的,对于分值小于 `-0.05` 的被认为是消极的,否则为中性。 在[第 2 部分](https://opensource.com/article/19/4/social-media-sentiment-analysis-python-part-2)中,你将学习如何使用这些工具为你的设计添加情感分析功能。 --- via: <https://opensource.com/article/19/4/social-media-sentiment-analysis-python> 作者:[Michael McCune](https://opensource.com/users/elmiko/users/jschlessman) 选题:[lujun9972](https://github.com/lujun9972) 译者:[MjSeven](https://github.com/MjSeven) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
每日安全资讯:哪些属于App违法违规收集使用个人信息?
安华金和
根据国家网信办官网消息,《APP违法违规收集使用个人信息行为认定方法(征求意见稿)》(以下简称《征求意见稿》)近日公开征求社会意见,对相关行为给出了较为明确的界定。
/data/attachment/album/201905/14/075122urrh0noghm0g48gp.jpg.thumb.jpg
/data/attachment/album/201905/14/075122urrh0noghm0g48gp.jpg
true
false
false
false
[ "手机" ]
每日安全资讯
{ "viewnum": 4302, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
根据国家网信办官网消息,《APP违法违规收集使用个人信息行为认定方法(征求意见稿)》(以下简称《征求意见稿》)近日公开征求社会意见,对相关行为给出了较为明确的界定。
2019-05-14T07:51:49
2019-05-14T07:51:49
10,853
/article-10853-1.html
![](/data/attachment/album/201905/14/075122urrh0noghm0g48gp.jpg) 手机 APP(应用程序)过度索权、注销难等导致个人信息“裸奔”的现象,近年来屡屡被曝光并引发关注。针对手机APP违法违规收集和使用个人信息问题,有关部门连出重拳。今年,中央网信办、工信部、公安部、市场监管总局等四部门开展专项治理行动,向违法违规手机APP“开刀”。 手机APP的哪些伎俩属于违法违规收集个人信息?根据国家网信办官网消息,《APP违法违规收集使用个人信息行为认定方法(征求意见稿)》(以下简称《征求意见稿》)近日公开征求社会意见,对相关行为给出了较为明确的界定。 **7 种 APP 情形被认定为违法违规** 根据《征求意见稿》,APP违法违规收集使用个人信息共有7种情形,包括没有公开收集使用规则;没有明示收集使用个人信息的目的、方式和范围;未经同意收集使用个人信息;违反必要性原则收集与其提供的服务无关的个人信息;未经同意向他人提供个人信息;未按法律规定提供删除或更正个人信息功能;侵犯未成年人在网络空间合法权益。 针对上述7种情形,《征求意见稿》有进一步的详细规定。例如,APP没有隐私政策、用户协议,在安装、使用等过程中均未通过弹窗、链接等方式提示用户阅读隐私政策,进入APP主功能界面后,多于4次点击、滑动才能访问到隐私政策等,都算作违法违规行为。 业内人士指出,《征求意见稿》的制定和公开征求意见,标志着APP违法违规专项治理行动又向前迈进了一步。这一规定既为手机APP运营者自查自纠提供了指引,也为有关监管部门评估和处置违法违规APP提供了参考,内容更加细化,同时切中了专项治理过程中的突出问题,有利于行业的有序发展,也利于公民的个人隐私得到更完善的保护。 **“强制授权”等将受到严厉处罚** 针对用户“吐槽”已久的一些违法违规情形,《征求意见稿》作出了明确的认定。例如,一些APP仅以改善程序功能、提高用户体验为由,收集用户个人信息;不少APP在申请调阅通讯录等权限时,未告知用户收集使用的目的;很多APP收集使用规则的内容晦涩难懂、长如“天书”;一些APP利用个人信息定向推送新闻、广告,却不提供终止推送的选项……以上这些行为,都被认定为违法违规。 与此同时,强制授权、过度索权、超范围收集、注销难等诸多行为都有明确的认定规则,如收集与现有业务无关的个人信息、收集频率等超出业务功能需要,未提供更正、删除个人信息和注销用户账号功能等。 中央网信办网络安全协调局巡视员兼副局长杨春艳表示,对于存在的问题和消费者反映强烈的问题,APP监管部门将重拳出击。对强制、过度收集个人信息,未经消费者同意、违反法律法规规定和双方约定收集、使用个人信息,发生或可能发生信息泄露、丢失而未采取补救措施,非法出售、非法向他人提供个人信息等行为,按照《网络安全法》《消费者权益保护法》等依法予以处罚。公安机关开展打击整治网络侵犯公民个人信息违法犯罪专项工作,依法严厉打击针对和利用个人信息的违法犯罪行为。 **彻底打破滥取用户信息的潜规则** 据悉,自APP违法违规收集使用个人信息专项治理工作组成立以来,至今年4月上旬,举报信息已近3500条,涉及1300余款APP。其中,对于30款用户量大、问题严重的APP,工作组已向其运营者发出了整改通知。 移动安全专家田铭表示,在大数据时代,一些互联网企业将手机APP用户视为重要资源,过度、过量索取用户隐私已成潜规则。企业获取的消费者信息越多,能绘制的消费者画像就越精准,从而达到流量变现的目的。 而获取消费者信息后,企业的数据保存和利用也存在安全隐患。一些企业的数据库缺乏有力的安全防护,在遭遇网络攻击时容易造成用户数据泄露。因此,专家指出,在认定方法最终出台后,要让相关规范在行业中得到严格执行,还需要一个循序渐进的过程。应通过技术性、长效性的个人信息保护解决方案,从源头上规范APP运营商的研发和推广,有效解决APP违规违法使用个人信息问题。 有APP运营者表示,运营团队十分关注认定方法的提出,也正在按照法律法规要求进行自查自纠。未来,将根据《征求意见稿》的进展做好合规准备,及时按照规定的要求查漏补缺,保护好用户的个人信息安全。 来源:人民日报海外版 ### 更多资讯 ##### Facebook 起诉韩国数据分析公司 欲重塑公司隐私形象 据外媒 Gizmodo 报道,在韩国数据分析公司 Rankwave 未能提供证据证明其遵守 Facebook 的数据政策之后,Facebook 已对该公司提起诉讼,指控 Rankwave 违反合同约定。 来源: 新浪科技 详情: http://t.cn/EK5nKxs ##### 报道称与俄罗斯有关的社交媒体账户正在传播针对欧盟选举的虚假信息 据《纽约时报》周日报道,一组与俄罗斯或极右翼团体有联系的网站和社交媒体账户正在传播虚假信息,并在欧盟关键选举前几周鼓励政治分歧。欧盟调查人员告诉《纽约时报》,该活动与俄罗斯此前的攻击活动具有许多相同的特征,包括俄罗斯干涉2016年美国大选的事件。 来源: cnBeta.COM 详情: <http://t.cn/EK5np5C> ##### 关于国家信息安全漏洞库(CNNVD)正式启动 2019 年兼容性服务申请工作的通知 CNNVD 兼容性服务是 CNNVD 面向国内外信息安全从业单位,对其产品/服务等涉及的漏洞信息进行规范性评估与认证的服务。通过 CNNVD 兼容性服务的信息安全产品/服务,可实现其漏洞信息拥有统一的规范性命名与标准化描述,为漏洞挖掘、应用、验证与规避等技术研究提供基础支持,为开发更安全的信息产品或软件系统提供理论和技术支撑,进一步满足国家重要信息系统安全保障的需求。 来源: FreeBuf.COM 详情: <http://t.cn/EK5nWd9> ##### 湖南一网站遭黑客入侵发布大量招嫖信息被查处 2019 年 5 月 5 日,在湘西州公安局网技支队的大力支持下,保靖县公安局成功办理一起违反《中华人民共和国网络安全法》行政案件,及时查处一家涉黄网站。这是自今年扫黑除恶 " 大走访、大排查、大管控、大研判 " 专项整治行动开展以来,该县依法成功处置的全州第一起网络安全类行政案件,有效防止涉黄招嫖有害信息进一步扩散。 来源: 中国经济网 详情: <http://t.cn/EK5nTrp> (信息来源于网络,安华金和搜集整理)
将 Fedora 29 升级到 Fedora 30
Ryan Lerch
https://fedoramagazine.org/upgrading-fedora-29-to-fedora-30/
Fedora 工作站版本有图形化升级的方法。另外,Fedora 也提供了一个命令行方法,用于将 Fedora 29 升级到 Fedora 30。
/data/attachment/album/201905/14/125156dtuotjgs5wto8z38.jpg.thumb.jpg
/data/attachment/album/201905/14/125156dtuotjgs5wto8z38.jpg
true
false
true
lujun9972
geekpi
wxy
false
[ "Fedora" ]
桌面应用
{ "viewnum": 7438, "commentnum": 0, "favtimes": 1, "sharetimes": 0, "likes": 0 }
[]
[]
Fedora 工作站版本有图形化升级的方法。另外,Fedora 也提供了一个命令行方法,用于将 Fedora 29 升级到 Fedora 30。
2019-05-14T12:51:00
2019-05-14T12:51:00
10,854
/article-10854-1.html
![](/data/attachment/album/201905/14/125156dtuotjgs5wto8z38.jpg) Fedora 30 [已经发布了](https://fedoramagazine.org/announcing-fedora-30/)。你可能希望将系统升级到最新版本的 Fedora。Fedora 工作站版本有图形化升级的方法。另外,Fedora 也提供了一个命令行方法,用于将 Fedora 29 升级到 Fedora 30。 ### 将 Fedora 29 工作站版本升级到 Fedora 30 在发布不久后,桌面会显示一条通知告诉你可以升级。你可以单击通知启动 “GNOME 软件” 应用。或者你可以从 GNOME Shell 中选择“软件”。 在 “GNOME 软件” 中选择*更新*选项卡,你会看到一个页面通知你可以更新 Fedora 30。 如果你在屏幕上看不到任何内容,请尝试点击左上角的重新加载按钮。发布后,所有系统都可能需要一段时间才能看到可用的升级。 选择“下载”获取升级包。你可以继续做其他的事直到下载完成。然后使用 “GNOME 软件” 重启系统并应用升级。升级需要时间,因此你可以喝杯咖啡,稍后再回来。 ### 使用命令行 如果你过去升级过 Fedora 版本,你可能熟悉 `dnf upgrade` 插件。这是从 Fedora 29 升级到 Fedora 30 的推荐和支持的方式。使用这个插件将使你的 Fedora 30 升级简单易行。 #### 1、更新软件并备份系统 在你执行任何操作之前,你需要确保在开始升级之前拥有 Fedora 29 的最新软件。要更新软件,请使用 “GNOME 软件” 或在终端中输入以下命令。 ``` sudo dnf upgrade --refresh ``` 此外,请确保在继续之前备份系统。关于备份的帮助,请参阅 Fedora Magazine 上的[备份系列](https://fedoramagazine.org/taking-smart-backups-duplicity/)。 #### 2、安装 DNF 插件 接下来,打开终端并输入以下命令来安装插件: ``` sudo dnf install dnf-plugin-system-upgrade ``` #### 3、使用 DNF 开始更新 现在你的系统是最新的,完成了备份,并且已安装 DNF 插件,你可以在终端中使用以下命令开始升级: ``` sudo dnf system-upgrade download --releasever=30 ``` 此命令将开始在本地下载所有升级文件以准备升级。如果你因为没有更新包、错误的依赖,或过时的包在升级时遇到问题,请在输入上面的命令时添加 `-- allowerasing` 标志。这将允许 DNF 删除可能阻止系统升级的软件包。 #### 4、重启并升级 当前面的命令完成下载所有升级文件后,你的系统就可以重启了。要将系统引导至升级过程,请在终端中输入以下命令: ``` sudo dnf system-upgrade reboot ``` 此后你的系统将重启。在许多版本之前,`fedup` 工具将在内核选择/引导页面上创建一个新选项。使用 `dnf-plugin-system-upgrade` 包,你的系统将使用当前 Fedora 29 安装的内核重启。这个是正常的。在内核选择页面后不久,系统开始升级过程。 现在可以休息一下了!完成后你的系统将重启,你就可以登录新升级的 Fedora 30 了。 ![](/data/attachment/album/201905/14/125236ikivq4ixvexxppar.png) ### 解决升级问题 升级系统时偶尔可能会出现意外问题。如果你遇到任何问题,请访问 [DNF 系统升级的维基页面](https://fedoraproject.org/wiki/DNF_system_upgrade#Resolving_post-upgrade_issues),以获取有关出现问题时的故障排除的更多信息。 如果你在升级时遇到问题并在系统上安装了第三方仓库,那么可能需要在升级时禁用这些仓库。有关 Fedora 对未提供仓库的支持,请与仓库的提供商联系。 --- via: <https://fedoramagazine.org/upgrading-fedora-29-to-fedora-30/> 作者:[Ryan Lerch](https://fedoramagazine.org/author/ryanlerch/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
如何在 Ubuntu 和其他 Linux 发行版上使用 7Zip
Abhishek Prakash
https://itsfoss.com/use-7zip-ubuntu-linux/
不能在 Linux 中提取 .7z 文件?学习如何在 Ubuntu 和其他 Linux 发行版中安装和使用 7zip。
/data/attachment/album/201905/14/154515xqy7nbq6eyjzu7qj.jpg.thumb.jpg
/data/attachment/album/201905/14/154515xqy7nbq6eyjzu7qj.jpg
true
false
true
lujun9972
warmfrog
wxy
false
[ "7zip", "7z" ]
技术
{ "viewnum": 7735, "commentnum": 0, "favtimes": 1, "sharetimes": 0, "likes": 0 }
[]
[]
不能在 Linux 中提取 .7z 文件?学习如何在 Ubuntu 和其他 Linux 发行版中安装和使用 7zip。
2019-05-14T15:55:00
2019-05-14T15:55:00
10,855
/article-10855-1.html
> > 不能在 Linux 中提取 .7z 文件?学习如何在 Ubuntu 和其他 Linux 发行版中安装和使用 7zip。 > > > ![](/data/attachment/album/201905/14/154515xqy7nbq6eyjzu7qj.jpg) [7Zip](https://www.7-zip.org/)(更适当的写法是 7-Zip)是一种在 Windows 用户中广泛流行的归档格式。一个 7Zip 归档文件通常以 .7z 扩展结尾。它大部分是开源的,除了包含一些少量解压 rar 文件的代码。 默认大多数 Linux 发行版不支持 7Zip。如果你试图提取它,你会看见这个错误: > > 不能打开这种文件类型 > > > 没有已安装的适用 7-zip 归档文件的命令。你想搜索一个命令来打开这个文件吗? > > > ![](/data/attachment/album/201905/14/155501xzl2lnf4ekgvk4bf.png) 不要担心,你可以轻松的在 Ubuntu 和其他 Linux 发行版中安装 7zip。 一个问题是你会注意到如果你试图用 [apt-get install 命令](https://itsfoss.com/apt-get-linux-guide/),你会发现没有以 7zip 开头的候选安装。因为在 Linux 中 7Zip 包的名字是 [p7zip](https://sourceforge.net/projects/p7zip/)。以字母 “p” 开头而不是预期的数字 “7”。 让我们看一下如何在 Ubuntu 和其他 Linux 发行版中安装 7zip。 ### 在 Ubuntu Linux 中安装 7Zip 你需要做的第一件事是安装 p7zip 包。你会在 Ubuntu 中发现 3 个包:p7zip、p7zip-full 和 pzip-rar。 pzip 和 p7zip-full 的不同是 pzip 是一个轻量级的版本,仅仅对 .7z 文件提供支持,而 p7zip-full 提供了更多的 7z 压缩算法(例如音频文件)。 p7zip-rar 包在 7z 中提供了对 [RAR 文件](https://itsfoss.com/use-rar-ubuntu-linux/) 的支持 在大多数情况下安装 p7zip-full 就足够了,但是你可能想安装 p7zip-rar 来支持 rar 文件的解压。 p7zip 包在 [Ubuntu 的 universe 仓库](https://itsfoss.com/ubuntu-repositories/) 因此保证你可以使用以下命令: ``` sudo add-apt-repository universe sudo apt update ``` 在 Ubuntu 和基于 Debian 的发行版中使用以下命令。 ``` sudo apt install p7zip-full p7zip-rar ``` 这很好。现在在你的系统就有了 7zip 归档的支持。 ### 在 Linux 中提取 7Zip 归档文件 安装了 7Zip 后,在 Linux 中,你可以在图形用户界面或者 命令行中提取 7zip 文件。 在图形用户界面,你可以像提取其他压缩文件一样提取 .7z 文件。右击文件来提取它。 在终端中,你可以使用下列命令提取 .7z 归档文件: ``` 7z e file.7z ``` ### 在 Linux 中压缩文件为 7zip 归档格式 你可以在图形界面压缩文件为 7zip 归档格式。简单的在文件或目录上右击,选择“压缩”。你应该看到几种类型的文件格式选项。选择 .7z。 ![7zip Archive Ubuntu](/data/attachment/album/201905/14/155503pywvbydeowybyeke.png) 作为替换,你也可以在命令行中使用。这里是你可以用来压缩的命令: ``` 7z a 输出的文件名 要压缩的文件 ``` 默认,归档文件有 .7z 扩展。你可以通过在指定输出文件扩展名为 .zip 以压缩为 zip 格式。 ### 总结 就是这样。看,在 Linux 中使用 7zip 多简单?我希望你喜欢这个快速指南。如果你有问题或者建议,请随意在下方评论让我知道。 --- via: <https://itsfoss.com/use-7zip-ubuntu-linux/> 作者:[Abhishek Prakash](https://itsfoss.com/author/abhishek/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[warmfrog](https://github.com/warmfrog) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
PPython:PHP 拥抱 Python 的利器
望星星降
PPython,这是一种从根本上将 PHP 与 Python 有效结合的技术。
/data/attachment/album/201905/14/164622ppbkxkvbr1vgxrxo.jpg.thumb.jpg
/data/attachment/album/201905/14/164622ppbkxkvbr1vgxrxo.jpg
true
false
false
false
[ "Python", "PHP", "PPython" ]
软件开发
{ "viewnum": 9853, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
PPython,这是一种从根本上将 PHP 与 Python 有效结合的技术。
2019-05-14T16:52:00
2019-05-14T16:52:00
10,856
/article-10856-1.html
![](/data/attachment/album/201905/14/164622ppbkxkvbr1vgxrxo.jpg) ### 介绍 Python 与 PHP 都是广泛使用的语言,各有所长,让人期待两者结合可以实现更丰富的效果。 在 PHP 中调用 Python 实现某些处理,这种需求虽然比较小众,还是实用的。目前网上可以查到很多资料仍在探讨 `exec()`(也包括 `system()`、`shell_exec()`、`passthru()` 等)执行外部的 Python 文件,但这只是一种通用的方式,调用成本比较高,在每次调用时,需要装载整个 Python 解释环境。 有此类需求的开发者非常适合看一下 PPython,这是一种从根本上将 PHP 与 Python 有效结合的技术。 PPython 最初见于 <https://code.google.com/p/ppython>,该作者将 [lajp](https://code.google.com/p/lajp)(一种 PHP 结合 Java 的技术)移植到了 Python 上。 该项目最初建立于 2012 年,而且似乎已经停止维护多年,不过目前来看其思路及效果还是值得肯定的,因此将此项目从停止运营的 Google Code 上迁移到了 [GitHub](https://www.github.com/maiwang79/ppython),并遵循原 Apache 许可证重新发布和维护。 日前笔者对此作了一番尝试,对 PPython 的方便易用有所体会。 ### 原理与架构 PHP 与 Python 通讯有两种不同的套接字机制:TCP 套接字和 UNIX 套接字。UNIX 套接字是 Unix/Linux 本地套接字,相对于 TCP 套接字,具有以下特点: * 只能在同一台主机中通讯(IPC),不能跨主机; * 传输速度大于 TCP 套接字; * 服务端只向本机提供服务(没有对外侦听端口),相对安全,易于管理。 PHP 和 Python 各有其语言内部定义的数据类型,通常 PHP 进程与 Python 进程进行数据交互时,需要进行转码处理。此类转换如由应用自行实现,从开发效率到运行性能都会增加不少额外负担。 PPython 对 PHP 和 Python 间的通讯方式的处理支持 TCP 套接字和 UNIX 套接字两种机制,兼顾通讯效率和分布式,转码由服务统一处理,Python 为 PHP 的数据类型提供格式兼容,使 PHP 端开发无须为底层通讯担心。 Python 因其语言 GIL 特性,同一进程内多线程效率不高。PPython 可根据项目需要部署服务,多进程运行 Python,提高应用综合性能。 ![](/data/attachment/album/201905/14/163259mlld9d4ysvl5bwyd.png) ### 使用方法 PPython 的代码可从[上述项目仓库](https://www.github.com/maiwang79/ppython)中下载。 下载得到的文件中,以下三个是 PPython 的核心代码,作用如下: * `php_python.py`,Python 进程主文件,完成 Python 端监听请求并运行返回 * `process.py`,Python 端核心类,实现 Python 内部进程调用及 PHP 与 Python 数据结构转化等关键处理 * `php_python.php`,PPython 客户端,PHP 端引用此文件,可直接使用 PPython 函数实现调用。 将以上文件放置到任意目录。先修改准备运行 PPython 的端口,监听端口不限,只要 `php_python.py` 和 `php_python.php` 两端修改一致。笔者统一改为 10240。 在当前目录下运行 `php_python.py`,只要 Python 环境正常,便将运行起一个 PPython 的服务。 ``` ------------------------------------------- - PPython Service - Time: 2019-05-13 22:24:09 ------------------------------------------- Listen port: 10240 charset: utf-8 Server startup... ``` PHP 端引入 `php_python.php`,就可以用 `ppython` 函数与之前启动的 PPython 服务通讯,传入请求由 PPython 服务调用 Python 处理后返回结果,如 `$res = ppython('test::go')` 是调用`test.py` 中的 `go` 函数,也可加上更多参数,第二个参数起将为被调的函数传递更多参数。 `php_python.py` 是 PPython 启动后直接运行的全局代码,有全局配置或进程启动后的通用处理都写在这里,如原生代码中建立了数据库连接等,项目中应视情况作优化。 但 Python 令人感兴趣的主要方面不只是像 PHP 那样描述业务功能,它可以在人工智能等领域所需要的计算型任务提供对更复杂的数据结构的处理,因此二者的结合可以给 PHP 带来更多应用场景。 ### 改进 此外,原生的 `php_python.py` 还有些不足。笔者用 `ppython` 调用自定义代码中遇到了三个问题,并相应做了解决: 1. 不支持 `complex`(复数类),复数是数学上的一种数据类型,主要包括 `real`(实部)和 `imag`(虚部)数据,虽然日常生活中遇到较少,但 AI 和各种专业研究领域或并不罕见。Python 里有 `complex` 类,对复数可以直接进行各种计算,但 `PPython` 序列化和反序列化对 `complex` 没有处理。为了能让 `complex` 包括的数据能正常返回,只要在 `process.py` 的 `z_encode()` 方法中加上符合 PHP 要求的序列化处理,代码如下: ``` elif isinstance(p, numpy.complex128): t1 = str(p.real) t2 = str(p.imag) return 'O:7:"complex":2:{s:4:"real";d:%s;s:4:"imag";d:%s;}' % (t1,t2) ``` 2. 不支持 `ndarray`(多维数组)。相比 `complex`,`ndarray` 要普通得多,相信凡使用到 Python 的各种计算功能,`ndarray` 是无法回避的,甚至 `ndarray` 在一定程度上成就了 Python。但原 `php_python.py` 不能识别 `ndarray`。不过解决起来并不难,在 `process.py` 里找到`z_encode()` 方法,加上下面这段,可以直接将 `ndarray` 转化为符合 PHP 要求的数组(数字索引)。 ``` elif isinstance(p, numpy.ndarray): s = '' i = 0 for d in p: s += 'i:%d;%s' % (i,z_encode(d)) i += 1 return "a:%d:{%s}" % (len(p),s) ``` 3. 原代码不太稳健,如数据为 `ndarray` 类型,`if p == None:`报错`ValueError: The truth value of an array with more than one element is ambiguous. Use a.any() or a.all()`,因为`p == None`的结果也是`ndarray`,不返回`false` ,将判断方法改为`if p is None:`可避免出错。 相应地 PHP 端也要注意一下序列化和反序列化的处理。 处理回复中类似 `complex` 这样的对象数据时,如系统中没有定义相应的类,PHP 是可以反序列化的,但将显示为 “incomplete object”,`vardump` 看得到 `real` 和 `imag` 数据,但不能直接操作,自行定义 `complex` 类后,则按指定的类进行解析,与 PHP 内的一般对象无异,可以轻松进行所有操作。 至此,PHP 与 Python 的功能调讯已无问题。 ### 补充:注册为服务 命令行下启动 `php_python.py` 主要是方便调试,可以看到观察反馈信息等,生产环境中手工启动 PPython 毕竟不太方便。可以将 PPython 配置成服务,修改端口也可以为不同的应用配置不同的 PPython 端。 Linux 下将一个进程注册为服务很简单,只要建立 `/usr/lib/systemd/system/ppython.service`,内容如下: ``` [Unit] Description=PHP-Python Service After=network.target remote-fs.target nss-lookup.target [Service] ExecStart={PPYTHON_PATH}/php_python.py [Install] WantedBy=multi-user.target ``` 其中 `{PPYTHON_PATH}` 要改成实际路径。 ### 总结 有了 PPython,可以摒弃 `exec()` 这种 shell 调用,使开发回归到逻辑本身。 个人认为该方案值得所有对 PHP 和 Python 都感兴趣的开发人员了解,也欢迎大家参与和贡献这个[项目](https://www.github.com/maiwang79/ppython)。
每日安全资讯:开源组件漏洞影响多个 CMS 系统
安华金和
运行 Drupal、Joomla 或 Typo3 系统的网站需要及时打上补丁。
/data/attachment/album/201905/15/081835brspbr44k019nk4p.jpg.thumb.jpg
/data/attachment/album/201905/15/081835brspbr44k019nk4p.jpg
true
false
false
false
[ "CMS", "Drupal" ]
每日安全资讯
{ "viewnum": 3828, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
运行 Drupal、Joomla 或 Typo3 系统的网站需要及时打上补丁。
2019-05-15T08:18:48
2019-05-15T08:18:48
10,857
/article-10857-1.html
![](/data/attachment/album/201905/15/081835brspbr44k019nk4p.jpg) 运行 Drupal、Joomla 或 Typo3 系统的网站需要及时打上补丁。编号为 CVE-2019-11831 的漏洞位于 PHP 组件 PharStreamWrapper 中,源于一个路径遍历 bug,允许攻击者用恶意的 phar 归档替换网站的合法相同文件。Drupal 开发者将这个漏洞标记中等危险级别,尽管不是高危,网站管理员还是应该尽可能快的打上补丁。发现该漏洞的安全研究员认为该漏洞属于高危。运行 Drupal 8.7 的网站需要升级到 8.7.1,8.6 或更早版本的网站需要更新到 8.6.16,7 需要升级到 7.67。Joomla 需要升级到 3.9.6。 来源:solidot.org ### 更多资讯 ##### 报告称忠诚度计划是“黑客的蜜罐” 使用可以在用户最喜欢的餐馆或服装店节省几美元的忠诚度应用程序似乎是无害的。然而根据《纽约时报》上周六的报道,这正是黑客所依赖的 。据《纽约时报》报道,一个安全组织估计,每年因在线忠诚计划相关犯罪而损失10亿美元。此外,根据Javelin战略与研究公司的说法,此类犯罪从2017年到2018年翻了一番。 来源: cnBeta.COM 详情: <http://t.cn/EKiZ8Eg> ##### 研究人员拟公开来自政府、可能会被遗忘的网络攻击历史记录 据外媒报道,1989年,就在网络成为现实的几个月后,一种计算机蠕虫感染了全世界全球成千上万台计算机,其中包括了NASA的计算机。蠕虫病毒在受感染电脑的屏幕上显示一条信息:“你的系统已被正式 WANKed。” 来源: cnBeta.COM 详情: <http://t.cn/EKiZmLN> ##### 德国网络安全局警告卡巴斯基杀毒软件存在安全缺陷 德国网络安全机构 BSI 就卡巴斯基杀毒软件的安全漏洞发出警告,建议用户尽快安装最新补丁。虽然该建议不包括基于该缺陷可能网络攻击的任何详细信息,但BSI警告说,黑客只需向其目标发送包含特制文件的恶意电子邮件,在某些情况下,甚至不需要打开该文件。 来源: cnBeta.COM 详情: <http://t.cn/EKiZ1zJ> ##### 日本母公司遭黑客袭击 46 万客户信息泄露 而国内优衣库却这样说 日本迅销公司 5 月 14 日发布声明说,旗下品牌优衣库、GU 销售网站逾 46 万名客户个人消息遭未授权访问,可能造成信息泄露。优衣库方面当天对北京青年报记者表示,经调查,此次事件不涉及中国的网站及信息平台。 来源: 北青网 详情: <http://t.cn/EKiZDBP> (信息来源于网络,安华金和搜集整理)
如何在你的 Python 游戏中添加一个玩家
Seth Kenlon
https://opensource.com/article/17/12/game-python-add-a-player
这是用 Python 从头开始构建游戏的系列文章的第三部分。
/data/attachment/album/201905/15/220708uu2vodtkjd5v7uvd.png.thumb.jpg
/data/attachment/album/201905/15/220708uu2vodtkjd5v7uvd.png
true
false
true
lujun9972
cycoe
wxy
false
[ "Python", "Pygame" ]
软件开发
{ "viewnum": 7469, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[ { "raid": 10850, "displayorder": 0 }, { "raid": 10874, "displayorder": 0 } ]
这是用 Python 从头开始构建游戏的系列文章的第三部分。
2019-05-15T22:06:00
2019-05-15T22:06:00
10,858
/article-10858-1.html
> > 这是用 Python 从头开始构建游戏的系列文章的第三部分。 > > > ![](/data/attachment/album/201905/15/220708uu2vodtkjd5v7uvd.png) 在 [这个系列的第一篇文章](/article-9071-1.html) 中,我解释了如何使用 Python 创建一个简单的基于文本的骰子游戏。在第二部分中,我向你们展示了如何从头开始构建游戏,即从 [创建游戏的环境](/article-10850-1.html) 开始。但是每个游戏都需要一名玩家,并且每个玩家都需要一个可操控的角色,这也就是我们接下来要在这个系列的第三部分中需要做的。 在 Pygame 中,玩家操控的图标或者化身被称作<ruby> 妖精 <rt> sprite </rt></ruby>。如果你现在还没有任何可用于玩家妖精的图像,你可以使用 [Krita](http://krita.org) 或 [Inkscape](http://inkscape.org) 来自己创建一些图像。如果你对自己的艺术细胞缺乏自信,你也可以在 [OpenClipArt.org](http://openclipart.org) 或 [OpenGameArt.org](https://opengameart.org/) 搜索一些现成的图像。如果你还未按照上一篇文章所说的单独创建一个 `images` 文件夹,那么你需要在你的 Python 项目目录中创建它。将你想要在游戏中使用的图片都放 `images` 文件夹中。 为了使你的游戏真正的刺激,你应该为你的英雄使用一张动态的妖精图片。这意味着你需要绘制更多的素材,并且它们要大不相同。最常见的动画就是走路循环,通过一系列的图像让你的妖精看起来像是在走路。走路循环最快捷粗糙的版本需要四张图像。 ![](/data/attachment/album/201905/15/220634e7eu508egkhemwwk.jpg) 注意:这篇文章中的代码示例同时兼容静止的和动态的玩家妖精。 将你的玩家妖精命名为 `hero.png`。如果你正在创建一个动态的妖精,则需要在名字后面加上一个数字,从 `hero1.png` 开始。 ### 创建一个 Python 类 在 Python 中,当你在创建一个你想要显示在屏幕上的对象时,你需要创建一个类。 在你的 Python 脚本靠近顶端的位置,加入如下代码来创建一个玩家。在以下的代码示例中,前三行已经在你正在处理的 Python 脚本中: ``` import pygame import sys import os # 以下是新代码 class Player(pygame.sprite.Sprite): ''' 生成一个玩家 ''' def __init__(self): pygame.sprite.Sprite.__init__(self) self.images = [] img = pygame.image.load(os.path.join('images','hero.png')).convert() self.images.append(img) self.image = self.images[0] self.rect = self.image.get_rect() ``` 如果你的可操控角色拥有一个走路循环,在 `images` 文件夹中将对应图片保存为 `hero1.png` 到 `hero4.png` 的独立文件。 使用一个循环来告诉 Python 遍历每个文件。 ``` ''' 对象 ''' class Player(pygame.sprite.Sprite): ''' 生成一个玩家 ''' def __init__(self): pygame.sprite.Sprite.__init__(self) self.images = [] for i in range(1,5): img = pygame.image.load(os.path.join('images','hero' + str(i) + '.png')).convert() self.images.append(img) self.image = self.images[0] self.rect = self.image.get_rect() ``` ### 将玩家带入游戏世界 现在已经创建好了一个 Player 类,你需要使用它在你的游戏世界中生成一个玩家妖精。如果你不调用 Player 类,那它永远不会起作用,(游戏世界中)也就不会有玩家。你可以通过立马运行你的游戏来验证一下。游戏会像上一篇文章末尾看到的那样运行,并得到明确的结果:一个空荡荡的游戏世界。 为了将一个玩家妖精带到你的游戏世界,你必须通过调用 Player 类来生成一个妖精,并将它加入到 Pygame 的妖精组中。在如下的代码示例中,前三行是已经存在的代码,你需要在其后添加代码: ``` world = pygame.display.set_mode([worldx,worldy]) backdrop = pygame.image.load(os.path.join('images','stage.png')).convert() backdropbox = screen.get_rect() # 以下是新代码 player = Player() # 生成玩家 player.rect.x = 0 # 移动 x 坐标 player.rect.y = 0 # 移动 y 坐标 player_list = pygame.sprite.Group() player_list.add(player) ``` 尝试启动你的游戏来看看发生了什么。高能预警:它不会像你预期的那样工作,当你启动你的项目,玩家妖精没有出现。事实上它生成了,只不过只出现了一毫秒。你要如何修复一个只出现了一毫秒的东西呢?你可能回想起上一篇文章中,你需要在主循环中添加一些东西。为了使玩家的存在时间超过一毫秒,你需要告诉 Python 在每次循环中都绘制一次。 将你的循环底部的语句更改如下: ``` world.blit(backdrop, backdropbox) player_list.draw(screen) # 绘制玩家 pygame.display.flip() clock.tick(fps) ``` 现在启动你的游戏,你的玩家出现了! ### 设置 alpha 通道 根据你如何创建你的玩家妖精,在它周围可能会有一个色块。你所看到的是 alpha 通道应该占据的空间。它本来是不可见的“颜色”,但 Python 现在还不知道要使它不可见。那么你所看到的,是围绕在妖精周围的边界区(或现代游戏术语中的“<ruby> 命中区 <rt> hit box </rt></ruby>”)内的空间。 ![](/data/attachment/album/201905/15/220634lu3vsl6i6zm98o99.jpg) 你可以通过设置一个 alpha 通道和 RGB 值来告诉 Python 使哪种颜色不可见。如果你不知道你使用 alpha 通道的图像的 RGB 值,你可以使用 Krita 或 Inkscape 打开它,并使用一种独特的颜色,比如 `#00ff00`(差不多是“绿屏绿”)来填充图像周围的空白区域。记下颜色对应的十六进制值(此处为 `#00ff00`,绿屏绿)并将其作为 alpha 通道用于你的 Python 脚本。 使用 alpha 通道需要在你的妖精生成相关代码中添加如下两行。类似第一行的代码已经存在于你的脚本中,你只需要添加另外两行: ``` img = pygame.image.load(os.path.join('images','hero' + str(i) + '.png')).convert() img.convert_alpha() # 优化 alpha img.set_colorkey(ALPHA) # 设置 alpha ``` 除非你告诉它,否则 Python 不知道将哪种颜色作为 alpha 通道。在你代码的设置相关区域,添加一些颜色定义。将如下的变量定义添加于你的设置相关区域的任意位置: ``` ALPHA = (0, 255, 0) ``` 在以上示例代码中,`0,255,0` 被我们使用,它在 RGB 中所代表的值与 `#00ff00` 在十六进制中所代表的值相同。你可以通过一个优秀的图像应用程序,如 [GIMP](http://gimp.org)、Krita 或 Inkscape,来获取所有这些颜色值。或者,你可以使用一个优秀的系统级颜色选择器,如 [KColorChooser](https://github.com/KDE/kcolorchooser),来检测颜色。 ![](/data/attachment/album/201905/15/220635mnesvs1e33z3yqbz.png) 如果你的图像应用程序将你的妖精背景渲染成了其他的值,你可以按需调整 `ALPHA` 变量的值。不论你将 alpha 设为多少,最后它都将“不可见”。RGB 颜色值是非常严格的,因此如果你需要将 alpha 设为 000,但你又想将 000 用于你图像中的黑线,你只需要将图像中线的颜色设为 111。这样一来,(图像中的黑线)就足够接近黑色,但除了电脑以外没有人能看出区别。 运行你的游戏查看结果。 ![](/data/attachment/album/201905/15/220636hqqduw0wzcuqdv8c.jpg) 在 [这个系列的第四篇文章](https://opensource.com/article/17/12/program-game-python-part-4-moving-your-sprite) 中,我会向你们展示如何使你的妖精动起来。多么的激动人心啊! --- via: <https://opensource.com/article/17/12/game-python-add-a-player> 作者:[Seth Kenlon](https://opensource.com/users/seth) 选题:[lujun9972](https://github.com/lujun9972) 译者:[cycoe](https://github.com/cycoe) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
使用 Cython 为 Python 编写更快的 C 扩展
Moshe Zadka
https://opensource.com/article/19/5/python-cython
在我们这个包含了 7 个 PyPI 库的系列文章中学习解决常见的 Python 问题的方法。
/data/attachment/album/201905/15/225506fnn2mz6l3u122n70.jpg.thumb.jpg
/data/attachment/album/201905/15/225506fnn2mz6l3u122n70.jpg
true
false
true
lujun9972
geekpi
wxy
false
[ "Python", "Cython" ]
软件开发
{ "viewnum": 6577, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[ { "raid": 10864, "displayorder": 0 } ]
在我们这个包含了 7 个 PyPI 库的系列文章中学习解决常见的 Python 问题的方法。
2019-05-15T22:55:00
2019-05-15T22:55:00
10,859
/article-10859-1.html
> > 在我们这个包含了 7 个 PyPI 库的系列文章中学习解决常见的 Python 问题的方法。 > > > ![](/data/attachment/album/201905/15/225506fnn2mz6l3u122n70.jpg) Python 是当今使用最多的[流行编程语言](https://opensource.com/article/18/5/numbers-python-community-trends)之一,因为:它是开源的,它有广泛的用途(例如 Web 编程、业务应用、游戏、科学编程等等),它有一个充满活力和专注的社区支持它。这个社区可以让我们在 [Python Package Index](https://pypi.org/)(PyPI)中有如此庞大、多样化的软件包,用以扩展和改进 Python 并解决不可避免的问题。 在本系列中,我们将介绍七个可以帮助你解决常见 Python 问题的 PyPI 库。首先是 [Cython](https://pypi.org/project/Cython/),一个简化 Python 编写 C 扩展的语言。 ### Cython 使用 Python 很有趣,但有时,用它编写的程序可能很慢。所有的运行时动态调度会带来很大的代价:有时它比用 C 或 Rust 等系统语言编写的等效代码慢 10 倍。 将代码迁移到一种全新的语言可能会在成本和可靠性方面付出巨大代价:所有的手工重写工作都将不可避免地引入错误。我们可以两者兼得么? 为了练习一下优化,我们需要一些慢代码。有什么比斐波那契数列的意外指数实现更慢? ``` def fib(n): if n < 2: return 1 return fib(n-1) + fib(n-2) ``` 由于对 `fib` 的调用会导致两次再次调用,因此这种效率极低的算法需要很长时间才能执行。例如,在我的新笔记本电脑上,`fib(36)` 需要大约 4.5 秒。这个 4.5 秒会成为我们探索 Python 的 Cython 扩展能提供的帮助的基准。 使用 Cython 的正确方法是将其集成到 `setup.py` 中。然而,使用 `pyximport` 可以快速地进行尝试。让我们将 `fib` 代码放在 `fib.pyx` 中并使用 Cython 运行它。 ``` >>> import pyximport; pyximport.install() >>> import fib >>> fib.fib(36) ``` 只使用 Cython 而不*修改*代码,这个算法在我笔记本上花费的时间减少到大约 2.5 秒。几乎无需任何努力,这几乎减少了 50% 的运行时间。当然,得到了一个不错的成果。 加把劲,我们可以让它变得更快。 ``` cpdef int fib(int n): if n < 2: return 1 return fib(n - 1) + fib(n - 2) ``` 我们将 `fib` 中的代码变成用 `cpdef` 定义的函数,并添加了两个类型注释:它接受一个整数并返回一个整数。 这个变得快*多*了,大约只用了 0.05 秒。它是如此之快,以至于我可能开始怀疑我的测量方法包含噪声:之前,这种噪声在信号中丢失了。 当下次你的 Python 代码花费太多 CPU 时间时,也许会导致风扇狂转,为何不看看 Cython 是否可以解决问题呢? 在本系列的下一篇文章中,我们将看一下 Black,一个自动纠正代码格式错误的项目。 (题图:[Subgrafik San](https://dribbble.com)) --- via: <https://opensource.com/article/19/5/python-cython> 作者:[Moshe Zadka](https://opensource.com/users/moshez/users/moshez/users/foundjem/users/jugmac00) 选题:[lujun9972](https://github.com/lujun9972) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
用于黑客渗透测试的 21 个最佳 Kali Linux 工具
Ankush Das
https://itsfoss.com/best-kali-linux-tools/
这里是最好的 Kali Linux 工具列表,它们可以让你评估 Web 服务器的安全性,并帮助你执行黑客渗透测试。
/data/attachment/album/201905/15/234125c22rx77mmz9m37zo.jpg.thumb.jpg
/data/attachment/album/201905/15/234125c22rx77mmz9m37zo.jpg
true
false
true
lujun9972
wxy
wxy
false
[ "安全", "黑客", "Kali" ]
分享
{ "viewnum": 44623, "commentnum": 0, "favtimes": 1, "sharetimes": 0, "likes": 0 }
[]
[]
这里是最好的 Kali Linux 工具列表,它们可以让你评估 Web 服务器的安全性,并帮助你执行黑客渗透测试。
2019-05-15T23:41:00
2019-05-15T23:41:00
10,860
/article-10860-1.html
> > 这里是最好的 Kali Linux 工具列表,它们可以让你评估 Web 服务器的安全性,并帮助你执行黑客渗透测试。 > > > 如果你读过 [Kali Linux 点评](https://itsfoss.com/kali-linux-review/),你就知道为什么它被认为是[最好的黑客渗透测试的 Linux 发行版](https://itsfoss.com/linux-hacking-penetration-testing/)之一,而且名副其实。它带有许多工具,使你可以更轻松地测试、破解以及进行与数字取证相关的任何其他工作。 它是<ruby> 道德黑客 <rt> ethical hacker </rt></ruby>最推荐的 Linux 发行版之一。即使你不是黑客而是网站管理员 —— 你仍然可以利用其中某些工具轻松地扫描你的网络服务器或网页。 在任何一种情况下,无论你的目的是什么 —— 让我们来看看你应该使用的一些最好的 Kali Linux 工具。 *注意:这里不是所提及的所有工具都是开源的。* ### 用于黑客渗透测试的 Kali Linux 工具 ![](/data/attachment/album/201905/15/234125c22rx77mmz9m37zo.jpg) Kali Linux 预装了几种类型的工具。如果你发现有的工具没有安装,只需下载并进行设置即可。这很简单。 #### 1、Nmap ![Nmap](/data/attachment/album/201905/15/234154lua2xtm5mtxwmjbc.jpg) [Nmap](https://nmap.org/) (即 “<ruby> 网络映射器 <rt> Network Mapper </rt></ruby>”)是 Kali Linux 上最受欢迎的信息收集工具之一。换句话说,它可以获取有关主机的信息:其 IP 地址、操作系统检测以及网络安全的详细信息(如开放的端口数量及其含义)。 它还提供防火墙规避和欺骗功能。 #### 2、Lynis ![Lynis](/data/attachment/album/201905/15/234159etw87c5togz71gox.jpg) [Lynis](https://cisofy.com/lynis/) 是安全审计、合规性测试和系统强化的强大工具。当然,你也可以将其用于漏洞检测和渗透测试。 它将根据检测到的组件扫描系统。例如,如果它检测到 Apache —— 它将针对入口信息运行与 Apache 相关的测试。 #### 3、WPScan ![WPScan](/data/attachment/album/201905/15/234205sgqfijtw4gp4nj1q.jpg) WordPress 是[最好的开源 CMS](https://itsfoss.com/open-source-cms/)之一,而这个工具是最好的免费 WordpPress 安全审计工具。它是免费的,但不是开源的。 如果你想知道一个 WordPress 博客是否在某种程度上容易受到攻击,[WPScan](https://wpscan.org/) 就是你的朋友。 此外,它还为你提供了所用的插件的详细信息。当然,一个安全性很好的博客可能不会暴露给你很多细节,但它仍然是 WordPress 安全扫描找到潜在漏洞的最佳工具。 #### 4、Aircrack-ng ![Aircrack-ng](/data/attachment/album/201905/15/234207tsn5m1ajy5oonoa5.jpg) [Aircrack-ng](https://www.aircrack-ng.org/) 是评估 WiFi 网络安全性的工具集合。它不仅限于监控和获取信息 —— 还包括破坏网络(WEP、WPA 1 和 WPA 2)的能力。 如果你忘记了自己的 WiFi 网络的密码,可以尝试使用它来重新获得访问权限。它还包括各种无线攻击能力,你可以使用它们来定位和监控 WiFi 网络以增强其安全性。 #### 5、Hydra ![Hydra](/data/attachment/album/201905/15/234209l9re145z7xeo3evr.jpg) 如果你正在寻找一个有趣的工具来破解登录密码,[Hydra](https://github.com/vanhauser-thc/thc-hydra) 将是 Kali Linux 预装的最好的工具之一。 它可能不再被积极维护,但它现在放在 [GitHub](https://github.com/vanhauser-thc/THC-Archive) 上,所以你也可以为它做贡献。 #### 6、Wireshark ![Wireshark](/data/attachment/album/201905/15/234212fyyex15seel21sj6.jpg) [Wireshark](https://www.wireshark.org/) 是 Kali Linux 上最受欢迎的网络分析仪。它也可以归类为用于网络嗅探的最佳 Kali Linux 工具之一。 它正在积极维护,所以我肯定会建议你试试它。 #### 7、Metasploit Framework ![Metasploit Framework](/data/attachment/album/201905/15/234214zokxem4848exk2xl.jpg) [Metsploit Framework](https://github.com/rapid7/metasploit-framework)(MSF)是最常用的渗透测试框架。它提供两个版本:一个开源版,另外一个是其专业版。使用此工具,你可以验证漏洞、测试已知漏洞并执行完整的安全评估。 当然,免费版本不具备所有功能,所以如果你在意它们的区别,你应该在[这里](https://www.rapid7.com/products/metasploit/download/editions/)比较一下版本。 #### 8、Skipfish ![Skipfish](/data/attachment/album/201905/15/234215xriizy0o002cumsx.jpg) 与 WPScan 类似,但它不仅仅专注于 WordPress。[Skipfish](https://gitlab.com/kalilinux/packages/skipfish/) 是一个 Web 应用扫描程序,可以为你提供几乎所有类型的 Web 应用程序的洞察信息。它快速且易于使用。此外,它的递归爬取方法使它更好用。 Skipfish 生成的报告可以用于专业的 Web 应用程序安全评估。 #### 9、Maltego ![Maltego](/data/attachment/album/201905/15/234217twwdt3ne3ted38ny.jpg) [Maltego](https://www.paterva.com/web7/buy/maltego-clients.php) 是一种令人印象深刻的数据挖掘工具,用于在线分析信息并连接信息点(如果有的话)。 根据这些信息,它创建了一个有向图,以帮助分析这些数据之间的链接。 请注意,这不是一个开源工具。 它已预装,但你必须注册才能选择要使用的版本。如果个人使用,社区版就足够了(只需要注册一个帐户),但如果想用于商业用途,则需要订阅 classic 或 XL 版本。 #### 10、Nessus ![Nessus](/data/attachment/album/201905/15/234218pv5rorhufug8p8o9.jpg) 如果你的计算机连接到了网络,Nessus 可以帮助你找到潜在攻击者可能利用的漏洞。当然,如果你是多台连接到网络的计算机的管理员,则可以使用它并保护这些计算机。 但是,它不再是免费的工具了,你可以从[官方网站](https://www.tenable.com/try)免费试用 7 天。 #### 11、Burp Suite Scanner ![Burp Suite Scanner](/data/attachment/album/201905/15/234220os4hr7rwss43vxs1.jpg) [Burp Suite Scanner](https://portswigger.net/burp) 是一款出色的网络安全分析工具。与其它 Web 应用程序安全扫描程序不同,Burp 提供了 GUI 和一些高级工具。 社区版仅将功能限制为一些基本的手动工具。对于专业人士,你必须考虑升级。与前面的工具类似,这也不是开源的。 我使用过免费版本,但是如果你想了解更多细节,你应该查看他们[官方网站](https://portswigger.net/burp)上提供的功能。 #### 12、BeEF ![BeEF](/data/attachment/album/201905/15/234221r5raarae5qnrafx0.jpg) BeEF(<ruby> 浏览器利用框架 <rt> Browser Exploitation Framework </rt></ruby>)是另一个令人印象深刻的工具。它专为渗透测试人员量身定制,用于评估 Web 浏览器的安全性。 这是最好的 Kali Linux 工具之一,因为很多用户在谈论 Web 安全时希望了解并修复客户端的问题。 #### 13、Apktool ![Apktool](/data/attachment/album/201905/15/234223slisododutl5a2u7.jpg) [Apktool](https://github.com/iBotPeaches/Apktool) 确实是 Kali Linux 上用于逆向工程 Android 应用程序的流行工具之一。当然,你应该正确利用它 —— 出于教育目的。 使用此工具,你可以自己尝试一下,并让原开发人员了解你的想法。你认为你会用它做什么? #### 14、sqlmap ![sqlmap](/data/attachment/album/201905/15/234225qmpj4y77mag7ilg0.jpg) 如果你正在寻找一个开源渗透测试工具 —— [sqlmap](http://sqlmap.org/) 是最好的之一。它可以自动化利用 SQL 注入漏洞的过程,并帮助你接管数据库服务器。 #### 15、John the Ripper ![John the Ripper](/data/attachment/album/201905/15/234226oqn3h6d2oqa4odo9.jpg) [John the Ripper](https://github.com/magnumripper/JohnTheRipper) 是 Kali Linux 上流行的密码破解工具。它也是自由开源的。但是,如果你对[社区增强版](https://github.com/magnumripper/JohnTheRipper)不感兴趣,可以用于商业用途的[专业版](https://www.openwall.com/john/pro/)。 #### 16、Snort 想要实时流量分析和数据包记录功能吗?[Snort](https://www.snort.org/) 可以鼎力支持你。即使它是一个开源的入侵防御系统,也有很多东西可以提供。 如果你还没有安装它,[官方网站](https://www.snort.org/#get-started)提及了安装过程。 ![Snort](/data/attachment/album/201905/15/235214n8qeq2exha2za1qv.jpg) #### 17、Autopsy Forensic Browser ![Autopsy Forensic Browser](/data/attachment/album/201905/15/234228yb1sxjsi3kvgkroz.jpg) [Autopsy](https://www.sleuthkit.org/autopsy/) 是一个数字取证工具,用于调查计算机上发生的事情。那么,你也可以使用它从 SD 卡恢复图像。它也被执法官员使用。你可以阅读[文档](https://www.sleuthkit.org/autopsy/docs.php)来探索可以用它做什么。 你还应该查看他们的 [GitHub 页面](https://github.com/sleuthkit/autopsy)。 #### 18、King Phisher ![King Phisher](/data/attachment/album/201905/15/234230o3szcfcbs0n0kpvn.jpg) 网络钓鱼攻击现在非常普遍。[King Phisher 工具](https://github.com/securestate/king-phisher)可以通过模拟真实的网络钓鱼攻击来帮助测试和提升用户意识。出于显而易见的原因,在模拟一个组织的服务器内容前,你需要获得许可。 #### 19、Nikto ![Nikto](/data/attachment/album/201905/15/234231pol785wduuoagdya.jpg) [Nikto](https://gitlab.com/kalilinux/packages/nikto/) 是一款功能强大的 Web 服务器扫描程序 —— 这使其成为最好的 Kali Linux 工具之一。 它会检查存在潜在危险的文件/程序、过时的服务器版本等等。 #### 20、Yersinia ![Yersinia](/data/attachment/album/201905/15/234233yzszztg2rzbsig0s.jpg) [Yersinia](https://github.com/tomac/yersinia) 是一个有趣的框架,用于在网络上执行第 2 层攻击(第 2 层是指 [OSI 模型](https://en.wikipedia.org/wiki/OSI_model)的数据链路层)。当然,如果你希望你的网络安全,则必须考虑所有七个层。但是,此工具侧重于第 2 层和各种网络协议,包括 STP、CDP,DTP 等。 #### 21、Social Engineering Toolkit (SET) ![Social Engineering Toolkit (SET)](/data/attachment/album/201905/15/234234itgtttlthkl6satr.jpg) 如果你正在进行相当严格的渗透测试,那么这应该是你应该检查的最佳工具之一。社交工程是一个大问题,使用 [SET](https://www.trustedsec.com/social-engineer-toolkit-set/) 工具,你可以帮助防止此类攻击。 ### 总结 实际上 Kali Linux 捆绑了很多工具。请参考 Kali Linux 的[官方工具列表页面](https://tools.kali.org/tools-listing)来查找所有内容。 你会发现其中一些是完全自由开源的,而有些则是专有解决方案(但是免费)。但是,出于商业目的,你应该始终选择高级版本。 我们可能错过了你最喜欢的某个 Kali Linux 工具。请在下面的评论部分告诉我们。 --- via: <https://itsfoss.com/best-kali-linux-tools/> 作者:[Ankush Das](https://itsfoss.com/author/ankush/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[wxy](https://github.com/wxy) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
每日安全资讯:SHA-1 碰撞攻击正变得切实可行
安华金和
上周一组来自新加坡和法国的研究人员演示了首个构造前缀碰撞攻击,即攻击者可以自由选择两个碰撞信息的前缀。
/data/attachment/album/201905/16/082722ob6kqomkdorrrpoq.jpg.thumb.jpg
/data/attachment/album/201905/16/082722ob6kqomkdorrrpoq.jpg
true
false
false
false
[ "SHA-1" ]
每日安全资讯
{ "viewnum": 3795, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
上周一组来自新加坡和法国的研究人员演示了首个构造前缀碰撞攻击,即攻击者可以自由选择两个碰撞信息的前缀。
2019-05-16T08:29:18
2019-05-16T08:29:18
10,861
/article-10861-1.html
Google 在 2017 年宣布了对 SHA-1 哈希算法的首个成功碰撞攻击。所谓碰撞攻击是指两个不同的信息产生了相同的哈希值。在 Google 的研究中,攻击所需的计算量十分惊人,用 Google 说法,它用了 6,500 年的 CPU 计算时间去完成了碰撞的第一阶段,然后用了 110 年的 GPU 计算时间完成第二阶段。 现在,SHA-1 碰撞攻击正变得切实可行。上周一组来自新加坡和法国的研究人员演示了首个构造前缀碰撞攻击,即攻击者可以自由选择两个碰撞信息的前缀。 构造前缀碰撞攻击所需的计算费用不到 10 万美元,意味着伪造 SHA-1 签名文件将变得可能,这些文档可能是商业文件也可能是 TLS 证书。现在是时候完全停止使用 SHA-1 了。 ![](/data/attachment/album/201905/16/082722ob6kqomkdorrrpoq.jpg) 来源:solidot.org ### 更多资讯 ##### 旧金山可能成为禁止面部识别技术的第一个美国城市 旧金山市将于周二投票决定是否禁止警察局和其他城市机构对居民进行面部识别。如果获得批准,这将是美国首次禁用该技术的城市。该法令还为警察部门制定了一个流程,以披露他们使用的监控技术,例如车牌阅读器和可以跟踪居民随时间变动的手机基站模拟器。但它特别指出面部识别对居民的公民自由太有害处,甚至不考虑使用。 来源: cnBeta.COM 详情: <http://t.cn/EKCwMtT> ##### “三只小猫”漏洞威胁全球数百万思科路由器 美国 Red Ballon 安全研究公司近日发布了一份报告,公布了思科产品的两个漏洞。第一个漏洞被称为Thrangrycat,允许攻击者通过现场可编程门阵列(FPGA)比特流操作完全绕过思科的信任锚模块(TAm)。 来源: 开源中国 详情: <http://t.cn/EKCwiEi> ##### 银行客户信息核实工作开启:手机号重复过多停办业务 近日,多家银行集体发布公告称将开展客户个人信息核实工作,与以往不同的是,此次核实信息包括姓名、性别、国籍、职业、联系电话、联系地址(家庭地址或工作地址)、身份证件类型及号码、证件有效期限。核实信息之多,可谓史上最严。 来源: 证券日报 详情: <http://t.cn/EKCwagX> ##### 不亚于 WannaCry:微软面向 Windows XP 发布紧急修复补丁 如果你依然在使用联网的 Windows XP 或者 Windows Server 2003 系统,同时也包括 Windows 7、Windows Server 2008 以及 2008 R2 系统,那么应该立即安装微软刚刚推出的紧急修复补丁。为了修复不亚于 Wannacry 的 RDP 服务漏洞,微软于今天面向包括 XP 在内的上述系统发布了紧急修复补丁,要求用户尽快完成安装。 来源: cnBeta.COM 详情: <http://t.cn/EKCwKT5> (信息来源于网络,安华金和搜集整理)
Maker DAO 通证解释:DAI、WETH、PETH、SIN、MKR 都是什么?(一)
Aleksey Studnev
https://medium.com/coinmonks/makerdao-tokens-explained-dai-weth-peth-sin-mkr-part-1-a46a0f687d5e
Maker DAO 使用了多个用于特定目的 ERC-20 通证,以确保 DAI 稳定币的稳定性。本文描述了基于 Bloxy.info 通证流工具的角色和使用模式。
/data/attachment/album/201905/16/122647ypl8i3y21l2pel38.jpeg.thumb.jpg
/data/attachment/album/201905/16/122647ypl8i3y21l2pel38.jpeg
true
false
true
zionfuo
false
[ "通证", "DAI" ]
技术
{ "viewnum": 17091, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
Maker DAO 使用了多个用于特定目的 ERC-20 通证,以确保 DAI 稳定币的稳定性。本文描述了基于 Bloxy.info 通证流工具的角色和使用模式。
2019-05-16T12:26:57
2019-05-16T12:26:57
10,862
/article-10862-1.html
![](/data/attachment/album/201905/16/122647ypl8i3y21l2pel38.jpeg) > > Maker DAO 使用了多个用于特定目的 ERC-20 通证,以确保 DAI 稳定币的稳定性。本文描述了基于 Bloxy.info 通证流工具的角色和使用模式。 > > > ### Maker DAO 通证 Maker DAO 系统是由多个智能合约(Sai Tap、Sai Tub、Vox、Medianiser 等)和 ERC-20 通证组成. 它们一起来确保 DAI 通证的稳定性。 在这篇文章中,我们主要关注通证是如何周转和使用的。下图显示了主要的通证流动周转和智能合约的使用方式,如何将一个通证转换为另一个通证: ![Maker DAO Token流动周转和智能合同使用方式](/data/attachment/album/201905/16/122658vyc9h9hxmazbca6a.jpg) *Maker DAO 通证流动周转和智能合约的使用方式* 上图中通证显示为圆形,而智能合约及其实体显示为圆角矩形。图表上的箭头表示使用这些智能合约的方法,你可以将余额从一个通证转换为另一个通证。 例如,调用 `join()` 将从你那里删除 WETH 通证,并为你提供适当数量的 PETH 通证。 ### 不稳定(类“ETH”)通证 图的左侧显示了与以太币相关的令牌: | | | | --- | --- | | | [ETH](https://bloxy.info/tokens/ETH):它本身并没有在 Maker DAO 系统中直接使用。如果你原来有 ETH (和我们大多数人一样),你必须首先将它转换成 WETH(“<ruby> 包装过的 ETH <rt> Wrapped ETH </rt></ruby>”)通证。 | | | [WETH](https://bloxy.info/address/0xc02aaa39b223fe8d0a0e5c4f27ead9083c756cc2):是 ETH 的一对一映射,但是作为 ERC-20 的通证存在。在任何时候,你都可以把 ETH 换成 WETH,或反之。缺点是,每一次这样的转变都需要花费燃料。 | | | [PETH](https://bloxy.info/address/0xf53ad2c6851052a81b42133467480961b2321c09):是 “<ruby> 集合 ETH <rt> Pooled Ether </rt></ruby>”的缩写。当你把 WETH 存入 Maker DAO 时,你会得到这个通证。请注意,它并不完全是一对一的,它的汇率是计算出来的。 | ### 稳定(类“DAI”)通证 | | | | --- | --- | | | [DAI](https://bloxy.info/address/0x89d24a6b4ccb1b6faa2625fe562bdd9a23260359):MakerDAO 的稳定币,预计将接近 1 美元。当你用 CDP 生成贷款时,它会为你创造 DAI。 | | | [SIN](https://bloxy.info/address/0x79f6d0f646706e1261acf0b93dcb864f357d4680):代表已清算的债务。它的价值等于 1DAI,在债务清算过程中使用而不是 DAI。 | ### Maker DAO 功能通证 | | | | --- | --- | | | [MKR](https://bloxy.info/address/0x9f8f72aa9304c8b593d555f12ef6589cc3a579a2):用于偿还债务时支付佣金的通证(通过擦除方法)。 | ### 智能合约 | | | | --- | --- | | | [Sai Tub 智能合约](https://bloxy.info/address/0x448a5065aebb8e423f0896e6c5d525c040f59af3):抵押债仓(CDP)系统。CDP 是你在 PETH 抵押后生成的 DAI 的债务。Maker DAO 的大多数操作都是使用它完成的。 | | | [Sai Tap 智能合约](https://bloxy.info/address/0xbda109309f9fafa6dd6a9cb9f1df4085b27ee8ef):可以用于清算债务并从中产生利润。 | ### 智能合约使用方法 Maker DAO 智能合约有很多的使用方法,下表对其中的主要部分进行了分类: ![Maker DAO智能合约使用方法](/data/attachment/album/201905/16/122659l1yj233t82yez3m3.jpg) *Maker DAO 智能合约使用方法* 大多数方法都是使用我们上面列出的通证来操作,并且 CDP 作为 Sai Tub 内部的实体。这些方法的更详细描述可以在 [Maker DAO 事务图解](https://medium.com/coinmonks/maker-dao-transactions-illustrated-691ad2715cf7)这篇文章之中看到。 ### 通证使用模式 下面的材料是基于 [Bloxy.info](https://bloxy.info/) 通证的周转工具和 Maker DAO 分析的[仪表板](https://stat.bloxy.info/superset/dashboard/makerdao/?standalone=true)。 > > [Bloxy.info](https://bloxy.info/) 网站为分析师、交易者、公司和加密爱好者提供了一套工具。 > > > 这些工具包括 API、仪表板和搜索引擎,所有这些都是现场提供,提供准确的数据,直接从区块链实时节点索引。 > > > Bloxy 的使命是使区块链更加透明,让人们和企业都可以访问。 > > > 请引用本文时指出数据来源。 > > > 我们的目标是将智能合约代码和上面的图表与关于这些通证的实际通证周转和用户操作相匹配。我们将使用我们的工具和分析方法,从不同的角度逐一调查这些通证。 我们要看的第一个通证是… #### WETH(Wrapped Ether) WETH 解释在 [weth.io](https://weth.io/) 网站上。WETH 被称为“<ruby> 包装过的 ETH <rt> Wrapped ETH </rt></ruby>”,可以在需要 ERC-20 通证的地方代替 ETH。我们首先想到的是去中心化交换 (DEX)。通常,DEX 协议更希望使用 ERC20 通证作为买/卖方之间的资产,并且不能直接使用 ETH。所以你先把你的 ETH 包装成 WETH,交换后的 WETH 可以换回 ETH。 这个通证与 Maker DAO 协议于 2017 年 12 月同时发起。请注意,其最大的持有者是 Maker DAO 的智能合约: ![WETH 最大持有者](/data/attachment/album/201905/16/122659l2ii5fotnmt02goq.jpg) *WETH最大持有者* 所有者与其他通证的交集还显示了 Maker DAO 通证: ![](/data/attachment/album/201905/16/122659val48bamkd5q95yy.jpg) *共同持有者相关的令牌,来源: [bloxy.info](https://bloxy.info/token_holders/0xc02aaa39b223fe8d0a0e5c4f27ead9083c756cc2)* Maker DAO Sai Tub 智能合约上出现的这种高 WETH 余额,是因为用户将 WETH 存入 Maker DAO 的 Sai Tub 智能合约,以便之后创建 CDP。我们分析了这个过程中动态的 [MakerDAO 仪表板](https://stat.bloxy.info/superset/dashboard/makerdao/?standalone=true): ![](/data/attachment/album/201905/16/122700rs5oz6z4h62rqrxi.jpg) *WETH 锁定的金额、存款和取款。来源: bloxy.info [MakerDAO dashboard](https://stat.bloxy.info/superset/dashboard/makerdao/?standalone=true)* 从这张图表中可以看出,在 2019 年 5 月 10 日,锁定的 WETH 金额约为 200 万 ETH (橙色线),而创造的总金额超过了 400 万 ETH。 参与这项活动的人有多少?交易者的数量可以通过唯一地址在 Sai Tub 智能合约上启动的退出/加入交易记录来估计: ![](/data/attachment/album/201905/16/122700kimtvgj1ccmtpmek.jpg) *在 Maker DAO 智能合约上唯一的地址数、锁定和释放 WETH。来源:bloxy.info [MakerDAO dashboard](https://stat.bloxy.info/superset/dashboard/makerdao/?standalone=true)* 交易者的行为是由每月锁定和释放的 WETH 数量来呈现的: ![](/data/attachment/album/201905/16/122700tcudl2wfl9spjo9u.jpg) *每月锁定和释放 WETH 的金额。来源: bloxy.info [MakerDAO dashboard](https://stat.bloxy.info/superset/dashboard/makerdao/?standalone=true)* 图中右侧的两列展示了,在 2019 年 4 月前,当更多的人开始从 Maker DAO 锁定和释放 WETH 时,锁定和释放的数量的趋势相当对称。那反过来也可导致 Maker DAO 的 WETH 数量减少。 #### Maker DAO 之外的 WETH? 那么问题来了,除了 Maker DAO 之外,它可以在任何地方使用吗? 答案是肯定的。首先,它在 ZeroX 和 Oasis (匹配市场) 交易所交易中非常活跃,下图是 bloxyinfo 中展示的 [WETH 交易页面](http://localhost:3000/token_trades/0xc02aaa39b223fe8d0a0e5c4f27ead9083c756cc2)。 [通证周转工具](http://localhost:3000/token_graphs/0xc02aaa39b223fe8d0a0e5c4f27ead9083c756cc2#) 显示 WETH 的主要流量: ![](/data/attachment/album/201905/16/122700vlhqlgw6gq1g1bsk.jpg) *主要的 WETH 周转路线。来源: [bloxy.info](http://localhost:3000/token_graphs/0xc02aaa39b223fe8d0a0e5c4f27ead9083c756cc2#)* 正如你所看到的,WETH 通证 有几个 “重心”: 1. MakerDAI 的 Sai Tub 合约 2. Oasis、DDEX 等交易所 3. ZeroX(不涉及转账,所以没有在这个图表上明确显示) 我们拿 DEX(去中心化交易所)上一个最活跃的交易者的 WETH 交易作为例子: ![](/data/attachment/album/201905/16/122700kcvfk49981hlqsk7.jpg) *DEX 上 WETH/DAI 交易对的多方交易。来源: [bloxy.info](https://bloxy.info/tx/0xc538725a76c26695c3fae183bea430bfb86449bc9a066288e52716d22b10f009)* WETH 的交易不仅仅是针对 DAI 的交易,以下是 DEX 交易所的前 10 组交易对: ![](/data/attachment/album/201905/16/122701ryca7cb6b8eezyjv.jpg) *DEX 上的前 10 组 WETH 交易对。来源: [bloxy.info DEX API](https://bloxy.info/api_methods)* #### PETH(Pooled Ether) PETH 代表了 ETH,你在 Maker DAO 智能合约中投入了 ETH,以在未来创造 DAI 债务。它对 WETH 的费率等于: ``` PETH = WETH * (Total PETH supply) / (WETH balance ) ``` 现在等于 1.04,因为 PETH 的一部分由于债务清算而被销毁。如图所示,这个数字随着时间的推移而增加: ![](/data/attachment/album/201905/16/122701t17wthi1crhzltig.jpg) *与 PETH/WETH 相关的费率和利润。来源:bloxy.info [MakerDAO dashboard](https://stat.bloxy.info/superset/dashboard/makerdao/?standalone=true)* PETH/WETH 费率的变化为早期进入并用 PETH 换取 WETH 的用户创造了<ruby> 年利率 <rt> Annual Percentage Rate </rt></ruby>(APR)和利润,他们的总利润估计在 80,000 ETH 左右。 PETH 是不能在 DEX 上进行交易的,似乎只作为 Maker DAO 的基础设施在其内部使用。 下面的通证周转显示,主要的 PETH 周转量是 Sai Tub 智能合约之间的互相转移。然后,部分周转量会转到 Sai Tap (在债务清算的情况下),或者转到系统地址(用于销毁): ![](/data/attachment/album/201905/16/122701d6n0msbnqb0kz01q.jpg) *PETH 通证周转。来源:[bloxy.info token flow tool](https://bloxy.info/token_graphs/0xf53ad2c6851052a81b42133467480961b2321c09#)* 继续! 在第二部分,我们将讨论 DAI、MKR 和 SIN 通证 ! --- via:<https://medium.com/coinmonks/makerdao-tokens-explained-dai-weth-peth-sin-mkr-part-1-a46a0f687d5e> 作者:Aleksey Studnev 译者:zionfuo
使用 Black 自由格式化 Python
Moshe Zadka
https://opensource.com/article/19/5/python-black
在我们覆盖 7 个 PyPI 库的系列文章中了解解决 Python 问题的更多信息。
/data/attachment/album/201905/16/220249ethkikh5h1uib5iy.jpg.thumb.jpg
/data/attachment/album/201905/16/220249ethkikh5h1uib5iy.jpg
true
false
true
lujun9972
geekpi
wxy
false
[ "Python" ]
软件开发
{ "viewnum": 7071, "commentnum": 0, "favtimes": 1, "sharetimes": 0, "likes": 0 }
[]
[ { "raid": 10859, "displayorder": 0 }, { "raid": 10871, "displayorder": 0 } ]
在我们覆盖 7 个 PyPI 库的系列文章中了解解决 Python 问题的更多信息。
2019-05-16T22:04:00
2019-05-16T22:04:00
10,864
/article-10864-1.html
> > 在我们覆盖 7 个 PyPI 库的系列文章中了解解决 Python 问题的更多信息。 > > > ![](/data/attachment/album/201905/16/220249ethkikh5h1uib5iy.jpg) Python 是当今使用最多的[流行编程语言](https://opensource.com/article/18/5/numbers-python-community-trends)之一,因为:它是开源的,它有广泛的用途(例如 Web 编程、业务应用、游戏、科学编程等等),它有一个充满活力和专注的社区支持它。这个社区可以让我们在 [Python Package Index](https://pypi.org/)(PyPI)中有如此庞大、多样化的软件包,用以扩展和改进 Python 并解决不可避免的问题。 在本系列中,我们将介绍七个可以帮助你解决常见 Python 问题的 PyPI 库。在第一篇文章中,我们了解了 [Cython](https://opensource.com/article/19/4/7-python-problems-solved-cython)。今天,我们将使用 [Black](https://pypi.org/project/black/) 这个代码格式化工具。 ### Black 有时创意可能是一件美妙的事情。有时它只是一种痛苦。我喜欢创造性地解决难题,但我希望我的 Python 格式尽可能一致。没有人对使用“有趣”缩进的代码印象深刻。 但是比不一致的格式更糟糕的是除了检查格式之外什么都没有做的代码审查。这对审查者来说很烦人,对于被审查者来说甚至更烦人。当你的 linter 告诉你代码缩进不正确时,但没有提示*正确*的缩进量,这也会令人气愤。 使用 Black,它不会告诉你*要*做什么,它是一个优良、勤奋的机器人:它将为你修复代码。 要了解它如何工作的,请随意写一些非常不一致的内容,例如: ``` def add(a, b): return a+b def mult(a, b): return \ a * b ``` Black 抱怨了么?并没有,它为你修复了! ``` $ black math reformatted math All done! ✨ ? ✨ 1 file reformatted. $ cat math def add(a, b): return a + b def mult(a, b): return a * b ``` Black 确实提供了报错而不是修复的选项,甚至还有输出 diff 编辑样式的选项。这些选项在持续集成 (CI)系统中非常有用,可以在本地强制运行 Black。此外,如果 diff 输出被记录到 CI 输出中,你可以直接将其粘贴到 `patch` 中,以便在极少数情况下你需要修复输出,但无法本地安装 Black 使用。 ``` $ black --check --diff bad --- math 2019-04-09 17:24:22.747815 +0000 +++ math 2019-04-09 17:26:04.269451 +0000 @@ -1,7 +1,7 @@ -def add(a, b): return a + b +def add(a, b): + return a + b def mult(a, b): - return \ - a * b + return a * b would reformat math All done! ? ? ? 1 file would be reformatted. $ echo $? 1 ``` 在本系列的下一篇文章中,我们将介绍 attrs ,这是一个可以帮助你快速编写简洁、正确的代码的库。 (题图:[Subgrafik San](https://dribbble.com/)) --- via: <https://opensource.com/article/19/5/python-black> 作者:[Moshe Zadka](https://opensource.com/users/moshez/users/moshez/users/moshez) 选题:[lujun9972](https://github.com/lujun9972) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
如何使用 rsync 的高级用法进行大型备份
Alan Formy-duval
https://opensource.com/article/19/5/advanced-rsync
基础的 rsync 命令通常足够来管理你的 Linux 备份,但是额外的选项使大型备份集更快、更强大。
/data/attachment/album/201905/16/231555em80ofla6fqz5qkq.png.thumb.jpg
/data/attachment/album/201905/16/231555em80ofla6fqz5qkq.png
true
false
true
lujun9972
warmfrog
wxy
false
[ "rsync", "备份" ]
技术
{ "viewnum": 8773, "commentnum": 1, "favtimes": 5, "sharetimes": 0, "likes": 0 }
[ { "postip": "183.131.17.228", "message": "很好的备份方案", "username": "chinalinux [Chrome 74.0|Windows 10]", "date": "2019-05-21T15:23:18" } ]
[]
基础的 rsync 命令通常足够来管理你的 Linux 备份,但是额外的选项使大型备份集更快、更强大。
2019-05-16T23:15:33
2019-05-16T23:15:33
10,865
/article-10865-1.html
> > 基础的 `rsync` 命令通常足够来管理你的 Linux 备份,但是额外的选项使大型备份集更快、更强大。 > > > ![Filing papers and documents](/data/attachment/album/201905/16/231555em80ofla6fqz5qkq.png "Filing papers and documents") 很明显,备份一直是 Linux 世界的热门话题。回到 2017,David Both 为 [Opensource.com](http://Opensource.com) 的读者在[使用 rsync 备份 Linux 系统](/article-8237-1.html)方面提了一些建议,在这年的更早时候,他发起了一项问卷调查询问大家,[在 Linux 中你的 /home 目录的主要备份策略是什么](https://opensource.com/poll/19/4/backup-strategy-home-directory-linux),在今年的另一个问卷调查中,Don Watkins 问到,[你使用哪种开源备份解决方案](https://opensource.com/article/19/2/linux-backup-solutions)。 我的回复是 [rsync](https://en.wikipedia.org/wiki/Rsync)。我真的非常喜欢 rsync!市场上有大量大而复杂的工具,对于管理磁带机或者存储库设备,这些可能是必要的,但是可能你需要的只是一个简单的开源命令行工具。 ### rsync 基础 我为一个大概拥有 35,000 开发者并有着几十 TB 文件的全球性机构管理二进制仓库。我经常一次移动或者归档上百 GB 的数据。使用的是 `rsync`。这种经历使我对这个简单的工具充满信心。(所以,是的,我在家使用它来备份我的 Linux 系统) 基础的 `rsync` 命令很简单。 ``` rsync -av 源目录 目的地目录 ``` 实际上,在各种指南中教的 `rsync` 命令在大多数通用情况下都运行的很好。然而,假设我们需要备份大量的数据。例如包含 2,000 个子目录的目录,每个包含 50GB 到 700GB 的数据。在这个目录运行 `rsync` 可能需要大量时间,尤其是当你使用校验选项时(我倾向使用)。 当我们试图同步大量数据或者通过慢的网络连接时,可能遇到性能问题。让我给你展示一些我使用的方法来确保好的性能和可靠性。 ### rsync 高级用法 `rsync` 运行时出现的第一行是:“正在发送增量文件列表。” 如果你在网上搜索这一行,你将看到很多类似的问题:为什么它一直运行,或者为什么它似乎挂起了。 这里是一个基于这个场景的例子。假设我们有一个 `/storage` 的目录,我们想要备份到一个外部 USB 磁盘,我们可以使用下面的命令: ``` rsync -cav /storage /media/WDPassport ``` `-c` 选项告诉 `rsync` 使用文件校验和而不是时间戳来决定改变的文件,这通常消耗的时间更久。为了分解 `/storage` 目录,我通过子目录同步,使用 `find` 命令。这是一个例子: ``` find /storage -type d -exec rsync -cav {} /media/WDPassport \; ``` 这看起来可以,但是如果 `/storage` 目录有任何文件,它们将被跳过。因此,我们如何同步 `/storage` 目录中的文件呢?同样有一个细微的差别是这些选项将造成 `rsync` 会同步 `.` 目录,该目录是源目录自身;这意味着它会同步子目录两次,这并不是我们想要的。 长话短说,我的解决方案是一个 “双-递增”脚本。这允许我分解一个目录,例如,当你的家目录有多个大的目录,例如音乐或者家庭照片时,分解 `/home` 目录为单个的用户家目录。 这是我的脚本的一个例子: ``` HOMES="alan" DRIVE="/media/WDPassport" for HOME in $HOMES; do cd /home/$HOME rsync -cdlptgov --delete . /$DRIVE/$HOME find . -maxdepth 1 -type d -not -name "." -exec rsync -crlptgov --delete {} /$DRIVE/$HOME \; done ``` 第一个 `rsync` 命令拷贝它在源目录中发现的文件和目录。然而,它将目录留着不处理,因此我们能够通过 `find` 命令迭代它们。这通过传递 `-d` 参数来完成,它告诉 `rsync` 不要递归目录。 ``` -d, --dirs 传输目录而不递归 ``` 然后 `find` 命令传递每个目录来单独运行 `rsync`。之后 `rsync` 拷贝目录的内容。这通过传递 `-r` 参数来完成,它告诉 `rsync` 要递归目录。 ``` -r, --recursive 递归进入目录 ``` 这使得 `rsync` 使用的增量文件保持在一个合理的大小。 大多数 `rsync` 指南为了简便使用 `-a` (或者 `archive`) 参数。这实际是一个复合参数。 ``` -a, --archive 归档模式;等价于 -rlptgoD(没有 -H,-A,-X) ``` 我传递的其他参数包含在 `a` 中;这些是 `-l`、`-p`、`-t`、`-g`和 `-o`。 ``` -l, --links 复制符号链接作为符号链接 -p, --perms 保留权限 -t, --times 保留修改时间 -g, --group 保留组 -o, --owner 保留拥有者(只适用于超级管理员) ``` `--delete` 选项告诉 `rsync` 删除目的地目录中所有在源目录不存在的任意文件。这种方式,运行的结果仅仅是复制。你同样可以排除 `.Trash` 目录或者 MacOS 创建的 `.DS_Store` 文件。 ``` -not -name ".Trash*" -not -name ".DS_Store" ``` ### 注意 最后一条建议: `rsync` 可以是破坏性的命令。幸运的是,它的睿智的创造者提供了 “空运行” 的能力。如果我们加入 `n` 选项,rsync 会显示预期的输出但不写任何数据。 ``` `rsync -cdlptgovn --delete . /$DRIVE/$HOME` ``` 这个脚本适用于非常大的存储规模和高延迟或者慢链接的情况。一如既往,我确信仍有提升的空间。如果你有任何建议,请在下方评论中分享。 --- via: <https://opensource.com/article/19/5/advanced-rsync> 作者:[Alan Formy-Duval](https://opensource.com/users/alanfdoss/users/marcobravo) 选题:[lujun9972](https://github.com/lujun9972) 译者:[warmfrog](https://github.com/warmfrog) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
每日安全资讯:Let's Encrypt 发布自己的证书透明度日志
安华金和
证书透明度是一个记录和监视证书签发的系统,有助于改进 CA 生态系统和 Web 安全,因此迅速成为关键的互联网基础设施。
/data/attachment/album/201905/17/075600avng79v2me7nm7k6.jpg.thumb.jpg
/data/attachment/album/201905/17/075600avng79v2me7nm7k6.jpg
true
false
false
false
[ "SSL" ]
每日安全资讯
{ "viewnum": 4226, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
证书透明度是一个记录和监视证书签发的系统,有助于改进 CA 生态系统和 Web 安全,因此迅速成为关键的互联网基础设施。
2019-05-17T07:56:26
2019-05-17T07:56:26
10,866
/article-10866-1.html
![](/data/attachment/album/201905/17/075600avng79v2me7nm7k6.jpg) 旨在让每个网站都能使用 HTTPS 加密的非赢利组织 Let's Encrypt 发布了自己的证书透明度(CT)日志 Oak,它欢迎其他 CA 递交证书日志。该项目得到了 Sectigo 的赞助。证书透明度是一个记录和监视证书签发的系统,有助于改进 CA 生态系统和 Web 安全,因此迅速成为关键的互联网基础设施。 Let's Encrypt 决定创建和运作自己的 CT 是出于多个理由:首先是 CT 与该组织让互联网变得更安全和尊重隐私的使命相一致,它相信透明能增强安全,能让人做出深思熟虑的决定; 其次是运作一个日志有助于控制其命运,Google Chrome 要求所有的新签发证书递交到两个不同的日志系统, 因此 Let's Encrypt 的运营必须要有多个日志选项;第三是它每天签发超过 100 万个证书,它想要设计一个能优化处理大量证书日志的系统。 来源:solidot.org ### 更多资讯 ##### 两家提供勒索软件解决方案的公司被发现是支付赎金 对于遭到勒索软件攻击的企业和机构,是向攻击者支付赎金还是寻找其它解决方案?支付赎金被认为会鼓励攻击者,被认为是不道德的。但其他解决方案可能会需要花更长的时间耗费更多金钱。 来源: solidot.org 详情: <http://t.cn/EKjCif9> ##### 美国联邦通信委员会计划为运营商提供更多权力来打击自动骚扰电话 美国联邦通信委员会主席 Ajit Pai 希望为移动电话公司提供更大的权力来阻止不受欢迎的自动骚扰电话。这项提议如果获得通过,将允许无线运营商默认为客户阻止这些自动骚扰电话。公司还允许消费者自己阻止来自未知号码的呼叫。 来源: cnBeta.COM 详情: <http://t.cn/EKjCaDT> ##### CEO 透露:Coinbase 现管理着 10 亿美元的加密货币资产 在周三举办的 CoinDesk Consensus 2019 大会上,Coinbase CEO Brian Armstrong 表示:尽管推出仅 12 个月,该交易所目前还是托管了 10 亿美元的加密货币资产(AUM)。在现场讨论环节,当《华尔街日报》记者 Paul Vigna 向 Armstrong 询问有关加密货币行业的机构参与状况,他答道:“从 12 个月前开始,我们管理的加密货币资产刚刚超过了 10 亿美元”。 来源: cnBeta.COM 详情: <http://t.cn/EKjCCIo> ##### 「净网 2019」4 万余条公民信息被窃取,怀化公安跨省抓获黑客 “我真没想到这触犯了法律”周某做梦也没有想到,因为自己一时炫技竟惹上了牢狱之灾。5 月 15 日晚,怀化市公安局鹤城分局网安大队民警将涉嫌侵犯公民个人信息及破坏计算机信息系统的违法犯罪嫌疑人周某从深圳带回怀化。周某因涉嫌窃取怀化市某高校学生信息数据 46767 条,目前已被刑事拘留。 来源: 怀化网警巡查执法 详情: <http://t.cn/EKjCOrq> (信息来源于网络,安华金和搜集整理)
使用 Python 构建可扩展的社交媒体情感分析服务
Michael Mccune
https://opensource.com/article/19/4/social-media-sentiment-analysis-python-scalable
学习如何使用 spaCy、vaderSentiment、Flask 和 Python 来为你的作品添加情感分析能力。
/data/attachment/album/201905/17/235241zr0cs4czu4psmrl6.jpg.thumb.jpg
/data/attachment/album/201905/17/235241zr0cs4czu4psmrl6.jpg
true
false
true
lujun9972
MjSeven
wxy
false
[ "情感" ]
软件开发
{ "viewnum": 5499, "commentnum": 0, "favtimes": 1, "sharetimes": 0, "likes": 0 }
[]
[ { "raid": 10852, "displayorder": 0 } ]
学习如何使用 spaCy、vaderSentiment、Flask 和 Python 来为你的作品添加情感分析能力。
2019-05-17T23:53:00
2019-05-17T23:53:00
10,867
/article-10867-1.html
> > 学习如何使用 spaCy、vaderSentiment、Flask 和 Python 来为你的作品添加情感分析能力。 > > > ![](/data/attachment/album/201905/17/235241zr0cs4czu4psmrl6.jpg) 本系列的[第一部分](/article-10852-1.html)提供了情感分析工作原理的一些背景知识,现在让我们研究如何将这些功能添加到你的设计中。 ### 探索 Python 库 spaCy 和 vaderSentiment #### 前提条件 * 一个终端 shell * shell 中的 Python 语言二进制文件(3.4+ 版本) * 用于安装 Python 包的 `pip` 命令 * (可选)一个 [Python 虚拟环境](https://virtualenv.pypa.io/en/stable/)使你的工作与系统隔离开来 #### 配置环境 在开始编写代码之前,你需要安装 [spaCy](https://pypi.org/project/spacy/) 和 [vaderSentiment](https://pypi.org/project/vaderSentiment/) 包来设置 Python 环境,同时下载一个语言模型来帮助你分析。幸运的是,大部分操作都容易在命令行中完成。 在 shell 中,输入以下命令来安装 spaCy 和 vaderSentiment 包: ``` pip install spacy vaderSentiment ``` 命令安装完成后,安装 spaCy 可用于文本分析的语言模型。以下命令将使用 spaCy 模块下载并安装英语[模型](https://spacy.io/models): ``` python -m spacy download en_core_web_sm ``` 安装了这些库和模型之后,就可以开始编码了。 #### 一个简单的文本分析 使用 [Python 解释器交互模式](https://docs.python.org/3.6/tutorial/interpreter.html) 编写一些代码来分析单个文本片段。首先启动 Python 环境: ``` $ python Python 3.6.8 (default, Jan 31 2019, 09:38:34) [GCC 8.2.1 20181215 (Red Hat 8.2.1-6)] on linux Type "help", "copyright", "credits" or "license" for more information. >>> ``` *(你的 Python 解释器版本打印可能与此不同。)* 1、导入所需模块: ``` >>> import spacy >>> from vaderSentiment import vaderSentiment ``` 2、从 spaCy 加载英语语言模型: ``` >>> english = spacy.load("en_core_web_sm") ``` 3、处理一段文本。本例展示了一个非常简单的句子,我们希望它能给我们带来些许积极的情感: ``` >>> result = english("I like to eat applesauce with sugar and cinnamon.") ``` 4、从处理后的结果中收集句子。SpaCy 已识别并处理短语中的实体,这一步为每个句子生成情感(即时在本例中只有一个句子): ``` >>> sentences = [str(s) for s in result.sents] ``` 5、使用 vaderSentiments 创建一个分析器: ``` >>> analyzer = vaderSentiment.SentimentIntensityAnalyzer() ``` 6、对句子进行情感分析: ``` >>> sentiment = [analyzer.polarity_scores(str(s)) for s in sentences] ``` `sentiment` 变量现在包含例句的极性分数。打印出这个值,看看它是如何分析这个句子的。 ``` >>> print(sentiment) [{'neg': 0.0, 'neu': 0.737, 'pos': 0.263, 'compound': 0.3612}] ``` 这个结构是什么意思? 表面上,这是一个只有一个字典对象的数组。如果有多个句子,那么每个句子都会对应一个字典对象。字典中有四个键对应不同类型的情感。`neg` 键表示负面情感,因为在本例中没有报告任何负面情感,`0.0` 值证明了这一点。`neu` 键表示中性情感,它的得分相当高,为 `0.737`(最高为 `1.0`)。`pos` 键代表积极情感,得分适中,为 `0.263`。最后,`cmpound` 键代表文本的总体得分,它可以从负数到正数,`0.3612` 表示积极方面的情感多一点。 要查看这些值可能如何变化,你可以使用已输入的代码做一个小实验。以下代码块显示了如何对类似句子的情感评分的评估。 ``` >>> result = english("I love applesauce!") >>> sentences = [str(s) for s in result.sents] >>> sentiment = [analyzer.polarity_scores(str(s)) for s in sentences] >>> print(sentiment) [{'neg': 0.0, 'neu': 0.182, 'pos': 0.818, 'compound': 0.6696}] ``` 你可以看到,通过将例句改为非常积极的句子,`sentiment` 的值发生了巨大变化。 ### 建立一个情感分析服务 现在你已经为情感分析组装了基本的代码块,让我们将这些东西转化为一个简单的服务。 在这个演示中,你将使用 Python [Flask 包](http://flask.pocoo.org/) 创建一个 [RESTful](https://en.wikipedia.org/wiki/Representational_state_transfer) HTTP 服务器。此服务将接受英文文本数据并返回情感分析结果。请注意,此示例服务是用于学习所涉及的技术,而不是用于投入生产的东西。 #### 前提条件 * 一个终端 shell * shell 中的 Python 语言二进制文件(3.4+ 版本) * 安装 Python 包的 `pip` 命令 * `curl` 命令 * 一个文本编辑器 * (可选) 一个 [Python 虚拟环境](https://virtualenv.pypa.io/en/stable/)使你的工作与系统隔离开来 #### 配置环境 这个环境几乎与上一节中的环境相同,唯一的区别是在 Python 环境中添加了 Flask 包。 1、安装所需依赖项: ``` pip install spacy vaderSentiment flask ``` 2、安装 spaCy 的英语语言模型: ``` python -m spacy download en_core_web_sm ``` #### 创建应用程序文件 打开编辑器,创建一个名为 `app.py` 的文件。添加以下内容 *(不用担心,我们将解释每一行)*: ``` import flask import spacy import vaderSentiment.vaderSentiment as vader app = flask.Flask(__name__) analyzer = vader.SentimentIntensityAnalyzer() english = spacy.load("en_core_web_sm") def get_sentiments(text): result = english(text) sentences = [str(sent) for sent in result.sents] sentiments = [analyzer.polarity_scores(str(s)) for s in sentences] return sentiments @app.route("/", methods=["POST", "GET"]) def index(): if flask.request.method == "GET": return "To access this service send a POST request to this URL with" \ " the text you want analyzed in the body." body = flask.request.data.decode("utf-8") sentiments = get_sentiments(body) return flask.json.dumps(sentiments) ``` 虽然这个源文件不是很大,但它非常密集。让我们来看看这个应用程序的各个部分,并解释它们在做什么。 ``` import flask import spacy import vaderSentiment.vaderSentiment as vader ``` 前三行引入了执行语言分析和 HTTP 框架所需的包。 ``` app = flask.Flask(__name__) analyzer = vader.SentimentIntensityAnalyzer() english = spacy.load("en_core_web_sm") ``` 接下来的三行代码创建了一些全局变量。第一个变量 `app`,它是 Flask 用于创建 HTTP 路由的主要入口点。第二个变量 `analyzer` 与上一个示例中使用的类型相同,它将用于生成情感分数。最后一个变量 `english` 也与上一个示例中使用的类型相同,它将用于注释和标记初始文本输入。 你可能想知道为什么全局声明这些变量。对于 `app` 变量,这是许多 Flask 应用程序的标准过程。但是,对于 `analyzer` 和 `english` 变量,将它们设置为全局变量的决定是基于与所涉及的类关联的加载时间。虽然加载时间可能看起来很短,但是当它在 HTTP 服务器的上下文中运行时,这些延迟会对性能产生负面影响。 ``` def get_sentiments(text): result = english(text) sentences = [str(sent) for sent in result.sents] sentiments = [analyzer.polarity_scores(str(s)) for s in sentences] return sentiments ``` 这部分是服务的核心 —— 一个用于从一串文本生成情感值的函数。你可以看到此函数中的操作对应于你之前在 Python 解释器中运行的命令。这里它们被封装在一个函数定义中,`text` 源作为文本变量传入,最后 `sentiments` 变量返回给调用者。 ``` @app.route("/", methods=["POST", "GET"]) def index(): if flask.request.method == "GET": return "To access this service send a POST request to this URL with" \ " the text you want analyzed in the body." body = flask.request.data.decode("utf-8") sentiments = get_sentiments(body) return flask.json.dumps(sentiments) ``` 源文件的最后一个函数包含了指导 Flask 如何为服务配置 HTTP 服务器的逻辑。它从一行开始,该行将 HTTP 路由 `/` 与请求方法 `POST` 和 `GET` 相关联。 在函数定义行之后,`if` 子句将检测请求方法是否为 `GET`。如果用户向服务发送此请求,那么下面的行将返回一条指示如何访问服务器的文本消息。这主要是为了方便最终用户。 下一行使用 `flask.request` 对象来获取请求的主体,该主体应包含要处理的文本字符串。`decode` 函数将字节数组转换为可用的格式化字符串。经过解码的文本消息被传递给 `get_sentiments` 函数以生成情感分数。最后,分数通过 HTTP 框架返回给用户。 你现在应该保存文件,如果尚未保存,那么返回 shell。 #### 运行情感服务 一切就绪后,使用 Flask 的内置调试服务器运行服务非常简单。要启动该服务,请从与源文件相同的目录中输入以下命令: ``` FLASK_APP=app.py flask run ``` 现在,你将在 shell 中看到来自服务器的一些输出,并且服务器将处于运行状态。要测试服务器是否正在运行,你需要打开第二个 shell 并使用 `curl` 命令。 首先,输入以下命令检查是否打印了指令信息: ``` curl http://localhost:5000 ``` 你应该看到说明消息: ``` To access this service send a POST request to this URI with the text you want analyzed in the body. ``` 接下来,运行以下命令发送测试消息,查看情感分析: ``` curl http://localhost:5000 --header "Content-Type: application/json" --data "I love applesauce!" ``` 你从服务器获得的响应应类似于以下内容: ``` [{"compound": 0.6696, "neg": 0.0, "neu": 0.182, "pos": 0.818}] ``` 恭喜!你现在已经实现了一个 RESTful HTTP 情感分析服务。你可以在 [GitHub 上找到此服务的参考实现和本文中的所有代码](https://github.com/elmiko/social-moments-service)。 ### 继续探索 现在你已经了解了自然语言处理和情感分析背后的原理和机制,下面是进一步发现探索该主题的一些方法。 #### 在 OpenShift 上创建流式情感分析器 虽然创建本地应用程序来研究情绪分析很方便,但是接下来需要能够部署应用程序以实现更广泛的用途。按照[Radnaalytics.io](https://github.com/radanalyticsio/streaming-lab) 提供的指导和代码进行操作,你将学习如何创建一个情感分析仪,可以容器化并部署到 Kubernetes 平台。你还将了解如何将 Apache Kafka 用作事件驱动消息传递的框架,以及如何将 Apache Spark 用作情绪分析的分布式计算平台。 #### 使用 Twitter API 发现实时数据 虽然 [Radanalytics.io](http://Radanalytics.io) 实验室可以生成合成推文流,但你可以不受限于合成数据。事实上,拥有 Twitter 账户的任何人都可以使用 [Tweepy Python](https://github.com/tweepy/tweepy) 包访问 Twitter 流媒体 API 对推文进行情感分析。 --- via: <https://opensource.com/article/19/4/social-media-sentiment-analysis-python-scalable> 作者:[Michael McCune](https://opensource.com/users/elmiko/users/jschlessman) 选题:[lujun9972](https://github.com/lujun9972) 译者:[MjSeven](https://github.com/MjSeven) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
用 Linux Shell 脚本来监控磁盘使用情况并发送邮件
Magesh Maruthamuthu
https://www.2daygeek.com/linux-shell-script-to-monitor-disk-space-usage-and-send-email/
在这篇指南中我们打算写一个 shell 脚本来监控系统的磁盘空间使用率。当系统到达给定的阀值,它将给对应的邮件地址发送一封邮件。
/data/attachment/album/201905/18/002118aaeaejeejrengyvg.jpg.thumb.jpg
/data/attachment/album/201905/18/002118aaeaejeejrengyvg.jpg
true
false
true
lujun9972
warmfrog
wxy
false
[ "磁盘" ]
技术
{ "viewnum": 14322, "commentnum": 1, "favtimes": 1, "sharetimes": 0, "likes": 0 }
[ { "postip": "183.131.17.228", "message": "对于那些,只有几台,十几台的设备来说很好,对于那些几百上千台的规模就需要监控平台了", "username": "chinalinux [Chrome 74.0|Windows 10]", "date": "2019-05-21T15:24:30" } ]
[]
在这篇指南中我们打算写一个 shell 脚本来监控系统的磁盘空间使用率。当系统到达给定的阀值,它将给对应的邮件地址发送一封邮件。
2019-05-18T00:21:30
2019-05-18T00:21:30
10,868
/article-10868-1.html
![](/data/attachment/album/201905/18/002118aaeaejeejrengyvg.jpg) 市场上有很多用来监控 Linux 系统的监控工具,当系统到达阀值后它将发送一封邮件。它监控所有的东西例如 CPU 利用率、内存利用率、交换空间利用率、磁盘空间利用率等等。然而,它更适合小环境和大环境。 想一想如果你只有少量系统,那么什么是最好的方式来应对这种情况。 是的,我们想要写一个 [shell 脚本](https://www.2daygeek.com/category/shell-script/) 来实现。 在这篇指南中我们打算写一个 shell 脚本来监控系统的磁盘空间使用率。当系统到达给定的阀值,它将给对应的邮件地址发送一封邮件。在这篇文章中我们总共添加了四个 shell 脚本,每个用于不同的目的。之后,我们会想出其他 shell 脚本来监控 CPU,内存和交换空间利用率。 在此之前,我想澄清一件事,根据我观察的磁盘空间使用率 shell 脚本使用情况。 大多数用户在多篇博客中评论说,当他们运行磁盘空间使用率脚本时他们获得了以下错误。 ``` # sh /opt/script/disk-usage-alert-old.sh /dev/mapper/vg_2g-lv_root test-script.sh: line 7: [: /dev/mapper/vg_2g-lv_root: integer expression expected / 9.8G ``` 是的,这是对的。甚至,当我第一次运行这个脚本的时候我遇到了相同的问题。之后,我发现了根本原因。 当你在基于 RHEL 5 & RHEL 6 的系统上运行包含用于磁盘空间警告的 `df -h` 或 `df -H` 的 shell 脚本中时,你会发现上述错误信息,因为输出格式不对,查看下列输出。 为了解决这个问题,我们需要用 `df -Ph` (POSIX 输出格式),但是默认的 `df -h` 在基于 RHEL 7 的系统上运行的很好。 ``` # df -h Filesystem Size Used Avail Use% Mounted on /dev/mapper/vg_2g-lv_root 10G 6.7G 3.4G 67% / tmpfs 7.8G 0 7.8G 0% /dev/shm /dev/sda1 976M 95M 830M 11% /boot /dev/mapper/vg_2g-lv_home 5.0G 4.3G 784M 85% /home /dev/mapper/vg_2g-lv_tmp 4.8G 14M 4.6G 1% /tmp ``` ### 方法一:Linux Shell 脚本来监控磁盘空间使用率和发送邮件 你可以使用下列 shell 脚本在 Linux 系统中来监控磁盘空间使用率。 当系统到达给定的阀值限制时,它将发送一封邮件。在这个例子中,我们设置阀值为 60% 用于测试目的,你可以改变这个限制来符合你的需求。 如果超过一个文件系统到达给定的阀值,它将发送多封邮件,因为这个脚本使用了循环。 同样,替换你的邮件地址来获取这份警告。 ``` # vi /opt/script/disk-usage-alert.sh #!/bin/sh df -Ph | grep -vE '^Filesystem|tmpfs|cdrom' | awk '{ print $5,$1 }' | while read output; do echo $output used=$(echo $output | awk '{print $1}' | sed s/%//g) partition=$(echo $output | awk '{print $2}') if [ $used -ge 60 ]; then echo "The partition \"$partition\" on $(hostname) has used $used% at $(date)" | mail -s "Disk Space Alert: $used% Used On $(hostname)" [email protected] fi done ``` 输出:我获得了下列两封邮件警告。 ``` The partition "/dev/mapper/vg_2g-lv_home" on 2g.CentOS7 has used 85% at Mon Apr 29 06:16:14 IST 2019 The partition "/dev/mapper/vg_2g-lv_root" on 2g.CentOS7 has used 67% at Mon Apr 29 06:16:14 IST 2019 ``` 最终添加了一个 [cronjob](https://www.2daygeek.com/crontab-cronjob-to-schedule-jobs-in-linux/) 来自动完成。它会每 10 分钟运行一次。 ``` # crontab -e */10 * * * * /bin/bash /opt/script/disk-usage-alert.sh ``` ### 方法二:Linux Shell 脚本来监控磁盘空间使用率和发送邮件 作为代替,你可以使用下列的 shell 脚本。对比上面的脚本我们做了少量改变。 ``` # vi /opt/script/disk-usage-alert-1.sh #!/bin/sh df -Ph | grep -vE '^Filesystem|tmpfs|cdrom' | awk '{ print $5,$1 }' | while read output; do max=60% echo $output used=$(echo $output | awk '{print $1}') partition=$(echo $output | awk '{print $2}') if [ ${used%?} -ge ${max%?} ]; then echo "The partition \"$partition\" on $(hostname) has used $used at $(date)" | mail -s "Disk Space Alert: $used Used On $(hostname)" [email protected] fi done ``` 输出:我获得了下列两封邮件警告。 ``` The partition "/dev/mapper/vg_2g-lv_home" on 2g.CentOS7 has used 85% at Mon Apr 29 06:16:14 IST 2019 The partition "/dev/mapper/vg_2g-lv_root" on 2g.CentOS7 has used 67% at Mon Apr 29 06:16:14 IST 2019 ``` 最终添加了一个 [cronjob](https://www.2daygeek.com/crontab-cronjob-to-schedule-jobs-in-linux/) 来自动完成。它会每 10 分钟运行一次。 ``` # crontab -e */10 * * * * /bin/bash /opt/script/disk-usage-alert-1.sh ``` ### 方法三:Linux Shell 脚本来监控磁盘空间使用率和发送邮件 我更喜欢这种方法。因为,它工作起来很有魔力,你只会收到一封关于所有事的邮件。 这相当简单和直接。 ``` */10 * * * * df -Ph | sed s/%//g | awk '{ if($5 > 60) print $0;}' | mail -s "Disk Space Alert On $(hostname)" [email protected] ``` 输出: 我获得了一封关于所有警告的邮件。 ``` Filesystem Size Used Avail Use Mounted on /dev/mapper/vg_2g-lv_root 10G 6.7G 3.4G 67 / /dev/mapper/vg_2g-lv_home 5.0G 4.3G 784M 85 /home ``` ### 方法四:Linux Shell 脚本来监控某个分区的磁盘空间使用情况和发送邮件 ``` # vi /opt/script/disk-usage-alert-2.sh #!/bin/bash used=$(df -Ph | grep '/dev/mapper/vg_2g-lv_dbs' | awk {'print $5'}) max=80% if [ ${used%?} -ge ${max%?} ]; then echo "The Mount Point "/DB" on $(hostname) has used $used at $(date)" | mail -s "Disk space alert on $(hostname): $used used" [email protected] fi ``` 输出: 我得到了下面的邮件警告。 ``` The partition /dev/mapper/vg_2g-lv_dbs on 2g.CentOS6 has used 82% at Mon Apr 29 06:16:14 IST 2019 ``` 最终添加了一个 [cronjob](https://www.2daygeek.com/crontab-cronjob-to-schedule-jobs-in-linux/) 来自动完成这些工作。它将每 10 分钟运行一次。 ``` # crontab -e */10 * * * * /bin/bash /opt/script/disk-usage-alert-2.sh ``` 注意: 你将在 10 分钟后收到一封邮件警告,因为这个脚本被计划为每 10 分钟运行一次(但也不是精确的 10 分钟,取决于时间)。 例如这个例子。如果你的系统在 8:25 到达了限制,你将在 5 分钟后收到邮件警告。希望现在讲清楚了。 --- via: <https://www.2daygeek.com/linux-shell-script-to-monitor-disk-space-usage-and-send-email/> 作者:[Magesh Maruthamuthu](https://www.2daygeek.com/author/magesh/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[warmfrog](https://github.com/warmfrog) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
每日安全资讯:Stack Overflow 遭遇黑客攻击
安华金和
在公告中写道:“我们已经确认黑客于 5 月 11 日获得了一定程度的生产环境的访问。我们在发现入侵之后就立即调查了黑客访问的范围并解决了所有已知的漏洞。”
/data/attachment/album/201905/18/111012dva6476uppunh84r.jpg.thumb.jpg
/data/attachment/album/201905/18/111012dva6476uppunh84r.jpg
true
false
false
false
[ "攻击", "黑客" ]
每日安全资讯
{ "viewnum": 4544, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
在公告中写道:“我们已经确认黑客于 5 月 11 日获得了一定程度的生产环境的访问。我们在发现入侵之后就立即调查了黑客访问的范围并解决了所有已知的漏洞。”
2019-05-18T11:10:54
2019-05-18T11:10:54
10,869
/article-10869-1.html
![](/data/attachment/album/201905/18/111012dva6476uppunh84r.jpg) Stack Overflow 是面向编程和开发相关话题的互联网最大 IT 技术问答网站。在其官网上发布的一则简短公告中表示,有黑客访问了公司的内部网络。Stack Overflow 工程副总裁 Mary Ferguson 表示:“上周末,Stack Overflow 遭到了网络攻击。” 在公告中写道:“我们已经确认黑客于 5 月 11 日获得了一定程度的生产环境的访问。我们在发现入侵之后就立即调查了黑客访问的范围并解决了所有已知的漏洞。”Ferguson 表示目前并没有直接证据表明黑客窃取了用户的登陆凭证,但是目前不能百分百排除这种可能。在公告中 Ferguson 表示在调查结束之后会公布更多的细节。 Stack Overflow 是一个程序设计领域的问答网站,隶属 Stack Exchange Network。网站允许注册用户提出或回答问题,还可对已有问题或答案加分、扣分或进行修改,条件是用户达到一定的“声望值”。“声望值”就是用户进行网站交互时能获取的分数,例如,用户 A 回答了一个问题,用户 B 对用户 A 的解答给予了“加分”,用户 A 就会因而获得 10 点声望值。当声望值达到某个程度,用户的权限就会增加,如声望值超过 50 点就可以评论答案,另外网站也会根据用户的贡献颁发徽章。用户创建的内容都使用知识共享协议授权。 直至 2018 年9月,Stack Overflow 有超过 9,400,000 名注册用户和超过 16,000,000 个问题,其中最常见的主题有JavaScript、Java、C#、PHP、Android、Python、jQuery 和 HTML。 来源:cnBeta.COM ### 更多资讯 ##### FBI 指控网络犯罪头目试图从全球 44000 台电脑中窃取 1 亿美元 美国联邦调查局(FBI)和全球执法合作伙伴周四上午称,一名策划了一项犯罪阴谋的网络黑客头目已被逮捕,该阴谋闯入了 44000 台电脑,可能窃取了数百万美元。欧洲警察组织和联邦调查局证实,亚历山大·科诺沃洛夫和他的同谋玛拉特·卡赞德吉因涉嫌参与所谓的 Goznym 犯罪网络而在格鲁吉亚受到起诉。 来源: cnBeta.COM 详情: <http://t.cn/EKnBrw8> ##### 新文件显示纽约警察局在其面部识别系统中使用了修改后的图像 乔治敦大学隐私和技术中心(CPT)的一份新报告揭露了纽约警察局面部识别系统的广泛滥用,包括图像改变和使用非可疑图像。在一个案例中,官员根据一名看起来像哈里森的嫌疑人的证人描述,上传了演员伍迪·哈里森的照片,嫌疑人后来因小偷窃而被捕。 来源: cnBeta.COM 详情: <http://t.cn/EKnBDS4> ##### 报告称黑客利用华硕云存储在 PC 上安装 Plead 后门 安全研究人员近日报告称,黑客组织 BlackTech 在中国台湾通过中间人攻击(“MITM 攻击”)部署了 Plead 恶意软件。该组织被曝利用华硕 WebStorage 软件的漏洞来上传绕过身份验证的恶意软件。 来源: cnBeta.COM 详情: <http://t.cn/EKnrv6e> ##### 俄罗斯政府网站被爆泄露 225 万用户社保和护照等信息 多家俄罗斯政府网站泄露了超过 225 万公民、公务员和高层政治家的私人和护照信息。俄罗斯非政府组织 Informational Culture 的联合创始人 Ivan Begtin 最先发现并公开了本次严重的数据泄露事件。由三篇博文组成的系列报道中,Begtin 表示他对政府在线认证中心、50 家政府门户网站以及政府机构使用的电子投标平台进行了调查。 来源: cnBeta.COM 详情: <http://t.cn/EKnrzyf> (信息来源于网络,安华金和搜集整理)
9102 年的 PHP
Brent
https://stitcher.io/blog/php-in-2019
你可以像以前一样对 PHP 自由吐槽。虽然,你可能会对 PHP 在过去的几年里的一些改进感到惊讶。
/data/attachment/album/201905/18/183202tdg7r7g5kl3du7ms.jpg.thumb.jpg
/data/attachment/album/201905/18/183202tdg7r7g5kl3du7ms.jpg
true
false
true
lujun9972
wxy
wxy
true
[ "PHP" ]
观点
{ "viewnum": 7747, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
你可以像以前一样对 PHP 自由吐槽。虽然,你可能会对 PHP 在过去的几年里的一些改进感到惊讶。
2019-05-18T18:32:00
2019-05-18T18:32:00
10,870
/article-10870-1.html
![](/data/attachment/album/201905/18/183202tdg7r7g5kl3du7ms.jpg) 你还记得篇流行的博客文章《[PHP:设计糟糕的分形](https://eev.ee/blog/2012/04/09/php-a-fractal-of-bad-design/)》吗?我第一次读到它时,我在一个有很多遗留的 PHP 项目的糟糕地方工作。这篇文章让我觉得我是否应该放弃,并去做与编程完全不同的事情。 还好,我之后很快就换了工作,更重要的是,自从 5.x 版本以来,PHP 成功地进步了很多。今天,我在向那些不再使用 PHP 编程,或者陷入遗留项目的人们致意。 剧透:今天有些事情仍然很糟糕,就像几乎每种编程语言都有它的怪癖一样。许多核心功能仍然有不一致的调用方法,仍然有令人困惑的配置设置,仍然有许多开发人员在那里写蹩脚的代码 —— 因为他们必须如此,或是他们不知道更好的写法。 今天我想看看好的一面:让我们关注已经发生变化的事情,以及编写干净而可维护的 PHP 代码的方法。在此之前,我想请你暂时搁置任何偏见。 然后,你可以像以前一样对 PHP 自由吐槽。虽然,你可能会对 PHP 在过去的几年里的一些改进感到惊讶。(LCTT 译注:说实话,我是真的感到吃惊) ### 提前看结论 * PHP 在积极地开发,每年都有新版本 * 自 PHP 5 时代以来的性能已经翻倍,如果不是三倍的话 * 有一个非常活跃的框架、包和平台的生态系统 * PHP 在过去几年中添加了许多新功能,并且这种语言在不断发展 * 像静态分析这样的工具在过去几年中已经成熟,并且一直保持增长 更新:人们让我展示一些实际的代码。我觉得这没问题!这是我的一个业余项目的[源代码](https://github.com/brendt/aggregate.stitcher.io),用 PHP 和 Laravel 编写的;[这里](https://spatie.be/open-source/packages)列出了我们在办公室维护的几百个自由开源软件包。这两者都是现代 PHP 项目的好例子。 那让我们开始吧。 ### 历史总结 出于更好地衡量的目的,让我们快速回顾一下如今的 PHP 发布周期。我们现在的 PHP 为 7.3,预计在 2019 年底为 7.4。PHP 8.0 将是 7.4 之后的下一个版本。 自从 5.x 时代以来,核心团队试图保持每年发布一个版本的周期,并且他们在过去的四年中成功地做到了这一点。 一般来说,每个新版本都会在两年内得到积极支持,并再获得一年以上的“安全修复”。其目标是激励 PHP 开发人员尽可能保持最新:例如,每年进行小规模升级比在 5.4 到 7.0 之间跳转更容易。 可以在 [这里](https://www.php.net/supported-versions.php) 找到 PHP 时间轴的活动概述。 ![](/data/attachment/album/201905/18/182816searmxew6rmq692a.jpg) 最后,PHP 5.6 是最新的 5.x 版本,而 8.0 是当前的下一个大版本。如果你想知道 PHP 6 发生了什么,你可以听听 [PHP Roundtable 播客](https://www.phproundtable.com/episode/what-happened-to-php-6)。 了解了这个,让我们揭穿一些关于现代 PHP 的常见误解。 ### PHP 的性能 早在 5.x 时代,PHP 的表现就是……嗯,平均水平。但是在 7.0 版本中,PHP 从头开始重写了核心部分,导致其性能提升了两到三倍! 但光是嘴说是不够的。让我们来看看基准测试。幸运的是,人们花了很多时间对 PHP 性能进行了基准测试。 我发现 [Kinsta](https://kinsta.com/blog/php-benchmarks/) 有一个很好的更新的测试列表。 自 7.0 升级以来,性能就一直在提升而没有回退。PHP Web 应用程序的性能可与其它语言中的 Web 框架相提并论,甚至在某些情况下更好。你可以看看这个[广泛的基准测试套件](https://github.com/the-benchmarker/web-frameworks)。 当然 PHP 框架不会胜过 C 和 Rust,但它们比 Rails 或 Django 要好得多,并且与 ExpressJS 相当。 ### 框架和生态系统 说到框架:PHP 可不仅仅是 WordPress。让我告诉你 —— 某些专业的 PHP 开发人员:WordPress 绝不代表当代的 PHP 生态系统。 一般来说,有两个主要的 Web 应用程序框架,[Symfony](https://symfony.com/) 和 [Laravel](https://laravel.com/),以及一些较小的应用程序框架。当然还有 Zend、Yii、Cake、Code Igniter 等等,但是如果你想知道现代 PHP 开发是怎么样的,这两者之一都是很好的选择。 这两个框架都有一个庞大的包和产品的生态系统。从管理面板和 CRM 到独立软件包,从 CI 到分析器,以及几个 Web 套接字服务器、队列管理器、支付集成等众多服务。老实说,要列出的内容太多了。 这些框架虽然适用于实际开发。如果你只是需要个内容管理系统(CMS),WordPress 和 CraftCMS 等平台就够了。 衡量 PHP 生态系统当前状态的一种方法是查看 Packagist,这是 PHP 主要的软件包存储库。它现在呈指数级增长。每天下载量达到了 2500 万次,可以说 PHP 生态系统已不再是以前的小型弱势群体了。 请查看此图表,它列出一段时间内的软件包和版本数量变化。它也可以在 [Packagist 网站](https://packagist.org/statistics)上找到它。 ![](/data/attachment/album/201905/18/183234wkk9xxfnop0dxxno.png) 除了应用程序框架和 CMS 之外,我们还看到过去几年里异步框架的兴起。 这些是用 PHP 或其他语言编写的框架和服务器,允许用户运行真正的异步 PHP,这些例子包括 [Swoole](https://www.swoole.co.uk/)(创始人韩天峰),以及 [Amp](https://amphp.org/) 和 [ReactPHP](https://reactphp.org/)。 我们已经进入了异步的世界,像 Web 套接字和具有大量 I/O 的应用程序之类的东西在 PHP 世界中已经变得非常重要。 在内部邮件列表里(PHP 核心开发人员讨论语言开发的地方)已经谈到了[将 libuv 添加到核心](https://externals.io/message/102415#102415)。如果你还不知道 libuv:Node.js 全有赖它提供异步性。 ### 语言本身 虽然尚未提供 `async` 和 `await`,但在过去几年中,PHP 语言本身已经有了很多改进。这是 PHP 中新功能的非详尽列表: * [短闭包](https://stitcher.io/blog/short-closures-in-php)(箭头函数) * [Null 合并操作符](https://stitcher.io/blog/shorthand-comparisons-in-php#null-coalescing-operator)(`??`) * [Trait](https://www.php.net/manual/en/language.oop5.traits.php)(一种代码重用方式) * [属性类型](https://stitcher.io/blog/new-in-php-74#typed-properties-rfc) * [展开操作符](https://wiki.php.net/rfc/argument_unpacking)(参数解包 `...`) * [JIT 编译器](https://wiki.php.net/rfc/jit)(即时编译器) * [FFI](https://wiki.php.net/rfc/ffi)(外部函数接口) * [匿名类](https://www.php.net/manual/en/language.oop5.anonymous.php) * [返回类型声明](https://www.php.net/manual/en/functions.returning-values.php#functions.returning-values.type-declaration) * [现代化的加密支持](https://wiki.php.net/rfc/libsodium) * [生成器](https://wiki.php.net/rfc/generators) * [等等](https://www.php.net/ChangeLog-7.php) 当我们讨论语言功能时,我们还要谈谈当今该语言的发展过程。虽然社区可以提出 RFC,但是得有一个活跃的志愿者核心团队才能推着它前进。 接下来,这些 RFC 将在“内部”邮件列表中进行讨论,这个邮件列表也可以[在线阅读](https://externals.io/)。在添加新的语言特性之前,必须进行投票。只有得到了至少 2/3 多数同意的 RFC 才能进入核心。 可能有大约 100 人能够投票,但不需要每个人对每个 RFC 进行投票。核心团队的成员当然可以投票,他们是维护代码库的人。除了他们之外,还有一群人从 PHP 社区中被单独挑选出来。这些人包括 PHP 文档的维护者,对 PHP 项目整体有贡献的人,以及 PHP 社区中的杰出开发人员。 虽然大多数核心开发都是在自愿的基础上完成的,但其中一位核心 PHP 开发人员 Nikita Popov 最近受雇于 [JetBrains](https://blog.jetbrains.com/phpstorm/2019/01/nikita-popov-joins-phpstorm-team/) 全职从事于 PHP 语言的开发。另一个例子是 Linux 基金会最近决定[投资 Zend 框架](https://getlaminas.org/)。像这样的雇佣和收购确保了 PHP 未来发展的稳定性。 ### 工具 除了核心本身,我们看到过去几年中围绕它的工具有所增加。首先浮现于我脑海中的是静态分析器,比如由 Vimeo 创建 [Psalm](https://github.com/vimeo/psalm),以及 [Phan](https://github.com/phan/phan) 和 [PHPStan](https://github.com/phpstan/phpstan)。 这些工具将静态分析你的 PHP 代码并报告任何类型错误和可能的错误等。在某种程度上,它们提供的功能可以与 TypeScript 进行比较,但是现在这种语言不能<ruby> 转译 <rt> transpiling </rt></ruby>,因此不支持使用自定义语法。 尽管这意味着我们需要依赖 docblocks,但是 PHP 之父 Rasmus Lerdorf 确实提到了[添加静态分析引擎](https://externals.io/message/101477#101592)到核心的想法。虽然会有很多潜力,但这是一项艰巨的任务。 说到转译,以及受到 JavaScript 社区的启发;他们已经努力在用户领域中扩展 PHP 语法。一个名为 [Pre](https://preprocess.io/) 的项目正是如此:允许将新的 PHP 语法转译为普通的 PHP 代码。 虽然这个思路已经在 JavaScript 世界中被证明了,但如果提供了适当的 IDE 和静态分析支持,它就能在 PHP 中工作了。这是一个非常有趣的想法,但必须发展起来才能称之为“主流”。 ### 结语 尽管如此,你仍然可以将 PHP 视为一种糟糕的语言。虽然这种语言肯定有它的缺点和背负了 20 年的遗产;但我可以放胆地说,我喜欢用它工作。 根据我的经验,我能够创建可靠、可维护和高质量的软件。我工作的客户对最终结果感到满意,“俺也一样”。 尽管仍然可以用 PHP 做很多乱七八糟的事情,但我认为如果明智和正确地使用的话,它是 Web 开发的绝佳选择。 你不同意吗?让我知道为什么!你可以通过 [Twitter](https://twitter.com/brendt_gd) 或 [电子邮件](mailto:brendt@stitcher.io) 与我联系。 --- via: <https://stitcher.io/blog/php-in-2019> 作者:[Brent](https://stitcher.io/blog/php-in-2019) 选题:[lujun9972](https://github.com/lujun9972) 译者:[wxy](https://github.com/wxy) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
使用 attrs 来告别 Python 中的样板
Moshe Zadka
https://opensource.com/article/19/5/python-attrs
在我们覆盖 7 个 PyPI 库的系列文章中了解更多解决 Python 问题的信息。
/data/attachment/album/201905/18/211211lhqqbemqwkeqc2bb.jpg.thumb.jpg
/data/attachment/album/201905/18/211211lhqqbemqwkeqc2bb.jpg
true
false
true
lujun9972
geekpi
wxy
false
[ "Python" ]
软件开发
{ "viewnum": 6874, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[ { "raid": 10864, "displayorder": 0 }, { "raid": 10887, "displayorder": 0 } ]
在我们覆盖 7 个 PyPI 库的系列文章中了解更多解决 Python 问题的信息。
2019-05-18T21:14:00
2019-05-18T21:14:00
10,871
/article-10871-1.html
> > 在我们覆盖 7 个 PyPI 库的系列文章中了解更多解决 Python 问题的信息。 > > > ![](/data/attachment/album/201905/18/211211lhqqbemqwkeqc2bb.jpg) Python是当今使用最多[流行的编程语言](https://opensource.com/article/18/5/numbers-python-community-trends)之一,因为:它是开源的,它具有广泛的用途(例如 Web 编程、业务应用、游戏、科学编程等等),它有一个充满活力和专注的社区支持它。这个社区是我们在 [Python Package Index](https://pypi.org/)(PyPI)中提供如此庞大、多样化的软件包的原因,用以扩展和改进 Python。并解决不可避免的问题。 在本系列中,我们将介绍七个可以帮助你解决常见 Python 问题的 PyPI 库。今天,我们将研究 [attrs](https://pypi.org/project/attrs/),这是一个帮助你快速编写简洁、正确的代码的 Python 包。 ### attrs 如果你已经写过一段时间的 Python,那么你可能习惯这样写代码: ``` class Book(object): def __init__(self, isbn, name, author): self.isbn = isbn self.name = name self.author = author ``` 接着写一个 `__repr__` 函数。否则,很难记录 `Book` 的实例: ``` def __repr__(self): return f"Book({self.isbn}, {self.name}, {self.author})" ``` 接下来你会写一个好看的 docstring 来记录期望的类型。但是你注意到你忘了添加 `edition` 和 `published_year` 属性,所以你必须在五个地方修改它们。 如果你不必这么做如何? ``` @attr.s(auto_attribs=True) class Book(object): isbn: str name: str author: str published_year: int edition: int ``` 使用新的类型注释语法注释类型属性,`attrs` 会检测注释并创建一个类。 ISBN 有特定格式。如果我们想强行使用该格式怎么办? ``` @attr.s(auto_attribs=True) class Book(object): isbn: str = attr.ib() @isbn.validator def pattern_match(self, attribute, value): m = re.match(r"^(\d{3}-)\d{1,3}-\d{2,3}-\d{1,7}-\d$", value) if not m: raise ValueError("incorrect format for isbn", value) name: str author: str published_year: int edition: int ``` `attrs` 库也对[不可变式编程](https://opensource.com/article/18/10/functional-programming-python-immutable-data-structures)支持良好。将第一行改成 `@attr.s(auto_attribs=True, frozen=True)` 意味着 `Book` 现在是不可变的:尝试修改一个属性将会引发一个异常。相反,比如,如果希望将发布日期向后一年,我们可以修改成 `attr.evolve(old_book, published_year=old_book.published_year+1)` 来得到一个*新的*实例。 本系列的下一篇文章我们将来看下 `singledispatch`,一个能让你向 Python 库添加方法的库。 **查看本系列先前的文章:** * [Cython](/article-10859-1.html) * [Black](/article-10864-1.html) --- via: <https://opensource.com/article/19/5/python-attrs> 作者:[Moshe Zadka](https://opensource.com/users/moshez/users/moshez) 选题:[lujun9972](https://github.com/lujun9972) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
如何在 Ubuntu 桌面手动添加应用快捷方式
Abhishek Prakash
https://itsfoss.com/ubuntu-desktop-shortcut/
在这篇快速指南中,你将学到如何在 Ubuntu 桌面和其他使用 GNOME 桌面的发行版中添加应用图标。
/data/attachment/album/201905/18/222559yjjrq3qdje8nmy2j.jpg.thumb.jpg
/data/attachment/album/201905/18/222559yjjrq3qdje8nmy2j.jpg
true
false
true
lujun9972
warmfrog
wxy
false
[ "GNOME", "桌面" ]
桌面应用
{ "viewnum": 27878, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
在这篇快速指南中,你将学到如何在 Ubuntu 桌面和其他使用 GNOME 桌面的发行版中添加应用图标。
2019-05-18T22:25:55
2019-05-18T22:25:55
10,872
/article-10872-1.html
> > 在这篇快速指南中,你将学到如何在 Ubuntu 桌面和其他使用 GNOME 桌面的发行版中添加应用图标。 > > > 一个经典的桌面操作系统在“桌面屏”上总是有图标的。这些桌面图标包括文件管理器、回收站和应用图标。 当在 Windows 中安装应用时,一些程序会询问你是否在桌面创建一个快捷方式。但在 Linux 系统中不是这样。 但是如果你热衷于这个特点,让我给你展示如何在 Ubuntu 桌面和其他使用 GNOME 桌面的发行版中创建应用的快捷方式。 ![Application Shortcuts on Desktop in Ubuntu with GNOME desktop](/data/attachment/album/201905/18/222559yjjrq3qdje8nmy2j.jpg) 如果你想知道我的桌面外观,我正在使用 Ant 主题和 Tela 图标集。你可以获取一些 [GTK 主题](https://itsfoss.com/best-gtk-themes/) 和 [为 Ubuntu 准备的图标集](https://itsfoss.com/best-icon-themes-ubuntu-16-04/)并换成你喜欢的。 ### 在 Ubuntu 中添加桌面快捷方式 ![](/data/attachment/album/201905/18/222603wm7tmyykhttehyyy.jpg) 个人来讲,我更喜欢为应用图标准备的 Ubuntu 启动器方式。如果我经常使用一个程序,我会添加到启动器。但是我知道不是每个人都有相同的偏好,可能少数人更喜欢桌面的快捷方式。 让我们看在桌面中创建应用快捷方式的最简单方式。 > > 免责声明 > > > 这篇指南已经在 Ubuntu 18.04 LTS 的 GNOME 桌面上测试过了。它可能在其他发行版和桌面环境上也能发挥作用,但你必须自己尝试。一些 GNOME 特定步骤可能会变,所以请在[其他桌面环境](https://itsfoss.com/best-linux-desktop-environments/)尝试时注意。 > > > #### 准备 首先最重要的事是确保你有 GNOME 桌面的图标权限。 如果你跟随 Ubuntu 18.04 自定义提示,你会知道如何安装 GNOME Tweaks 工具。在这个工具中,确保你设置“Show Icons”选项为启用。 ![Allow icons on desktop in GNOME](/data/attachment/album/201905/18/222606rn3ud71iykdu3nun.jpg) 一旦你确保已经设置,是时候在桌面添加应用快捷方式了。 #### 第一步:定位应用的 .desktop 文件 到 “Files -> Other Location -> Computer”。 ![Go to Other Locations -> Computer](/data/attachment/album/201905/18/222608ojiixetwapepwpvv.png) 从这里,到目录 “usr -> share -> applications”。你会在这里看到几个你已经安装的 [Ubuntu 应用](https://itsfoss.com/best-ubuntu-apps/)。即使你没有看到图标,你应该看到被命名为“应用名.desktop”形式的文件。 ![Application Shortcuts](/data/attachment/album/201905/18/222611gcm3px4k3n3kcp40.png) #### 第二步:拷贝 .desktop 文件到桌面 现在你要做的只是查找应用图标(或者它的 desktop 文件)。当你找到后,拖文件到桌面或者拷贝文件(使用 `Ctrl+C` 快捷方式)并在桌面粘贴(使用 `Ctrl+V` 快捷方式)。 ![Add .desktop file to the desktop](/data/attachment/album/201905/18/222614clnp65n831nznw8t.jpg) #### 第三步:运行 desktop 文件 当你这么做,你应该在桌面上看到一个图标的文本文件而不是应用 logo。别担心,一会就不一样了。 你要做的就是双击桌面的那个文件。它将警告你它是一个“未信任的应用启动器’,点击“信任并启动”。 ![Launch Desktop Shortcut](/data/attachment/album/201905/18/222617luc99ucn9k72nhgf.jpg) 这个应用像往常一样启动,好事是你会察觉到 .desktop 文件现在已经变成应用图标了。我相信你喜欢应用图标的方式,不是吗? ![Application shortcut on the desktop](/data/attachment/album/201905/18/222621ceu0wwzxgwletlcj.jpg) #### Ubuntu 19.04 或者 GNOME 3.32 用户的疑难杂症 如果你使用 Ubuntu 19.04 或者 GNOME 3.32,你的 .desktop 文件可能根本不会启动。你应该右击 .desktop 文件并选择 “允许启动”。 在这之后,你应该能够启动应用并且桌面上的应用快捷方式能够正常显示了。 ### 总结 如果你不喜欢桌面的某个应用启动器,选择删除就是了。它会删除应用快捷方式,但是应用仍安全的保留在你的系统中。 我希望你发现这篇快速指南有帮助并喜欢在 Ubuntu 桌面上的应用快捷方式。 如果你有问题或建议,请在下方评论让我知道。 --- via: <https://itsfoss.com/ubuntu-desktop-shortcut/> 作者:[Abhishek Prakash](https://itsfoss.com/author/abhishek/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[warmfrog](https://github.com/warmfrog) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
每日安全资讯:Stack Overflow 安全事件新进展:部分用户私人信息遭窃
安华金和
入侵实际发生在 5 月 5 日,当时部署到 stackoverflow.com 的开发层的构建包含一个错误,该错误允许攻击者登录到开发层,并在网站的生产版本上升级他们的访问权限。
/data/attachment/album/201905/19/104128m5ju9puxpybc5kbc.jpg.thumb.jpg
/data/attachment/album/201905/19/104128m5ju9puxpybc5kbc.jpg
true
false
false
false
[]
每日安全资讯
{ "viewnum": 3193, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
入侵实际发生在 5 月 5 日,当时部署到 stackoverflow.com 的开发层的构建包含一个错误,该错误允许攻击者登录到开发层,并在网站的生产版本上升级他们的访问权限。
2019-05-19T10:41:00
2019-05-19T10:41:00
10,873
/article-10873-1.html
Stack Overflow 遭黑客入侵一事仍在调查中,官方博客披露了调查最新进展。入侵实际发生在 5 月 5 日,当时部署到 stackoverflow.com 的开发层的构建包含一个错误,该错误允许攻击者登录到开发层,并在网站的生产版本上升级他们的访问权限。 ![](/data/attachment/album/201905/19/104128m5ju9puxpybc5kbc.jpg) 黑客潜入系统并探索了至少 5 天都未被发现,直到 5 月 11 日,“入侵者对我们的系统进行了更改,以便为自己提供访问特权。这一变化很快被发现,我们撤销了他们在整个网络的访问,开始调查入侵,并采取修复措施。” 调查显示整体用户数据库没有受到损害,攻击者提出的特权 Web 请求已经确定,这些请求返回了约 250 位 Stack Exchange 用户的 IP 地址、名称或电子邮件。受影响用户将很快接到官方的通知。 来源:开源中国 ### 更多资讯 ##### 美官员警告 5G 网络或对天气预报系统造成严重破坏 几个月来,美国宇航局(NASA)国家海洋和大气管理局(NOAA)一直在向联邦通信委员会(FCC)发出警告,称之拍卖的 5G 无线网络频谱,可能对天气预报系统的数据收集系统造成严重的影响,从而影响飓风预测的准确性。周四的时候,NOAA 代理主席 Neil Jacobs 在国会山表示,正在推进的 5G 网络建设,或将天气预报的准确性降低 30% 。 来源: cnBeta.COM 详情: <http://t.cn/EKeVLaK> ##### 苹果设备被曝存在 PEAP 认证漏洞 研究人员对官方修复方案存疑 研究人员发现苹果设备在 PEAP 认证上存在缺陷,攻击者可强迫苹果设备接入恶意热点。研究人员称,即使身份验证服务器(RADIUS)也不能证明密码的真实性,该错误依然允许攻击者强制任何 Apple 设备(iOS、macOS 或 tvOS)与恶意接入点关联。 来源: 雷锋网 详情: <http://t.cn/EKeV4kM> ##### 出来混迟早要还 FBI 通缉 5 名在逃黑客 GozNym 这个词,想必不少人的脑海中还有印象——2016 年,这个屌炸天的黑客“天团”用 GozNym 恶意程序攻击了 24 家位于美国及加拿大的银行,只花了短短的几天便盗走数百万美元。时隔三年,他们过得咋样呢?没错,全球通缉中。至于上面那个笑话嘛,一半是真事,另一半即将成真。 来源: 雷锋网 详情: <http://t.cn/EKeVVfM> ##### 俄罗斯黑客又开始行动 这次目标是儿童电视选秀节目 听到俄罗斯黑客时,我们通常会想到他们对美国选举干预行为,但他们确实有其他用途,包括为儿童操纵俄罗斯电视选秀节目。在俄罗斯一次电视选秀节目当中,11 岁的米凯拉·阿布拉莫娃在获得 56.5% 的选票,赢得了 3 万张选票,荣膺“俄罗斯声音之子”的桂冠。 来源: cnBeta.COM 详情: <http://t.cn/EKeVa0p> (信息来源于网络,安华金和搜集整理)
用 Pygame 使你的游戏角色移动起来
Seth Kenlon
https://opensource.com/article/17/12/game-python-moving-player
在本系列的第四部分,学习如何编写移动游戏角色的控制代码。
/data/attachment/album/201905/19/231156pei4mz4hfte5qmfd.png.thumb.jpg
/data/attachment/album/201905/19/231156pei4mz4hfte5qmfd.png
true
false
true
lujun9972
cycoe
wxy
false
[ "Pygame" ]
软件开发
{ "viewnum": 8956, "commentnum": 0, "favtimes": 2, "sharetimes": 0, "likes": 0 }
[]
[ { "raid": 10858, "displayorder": 0 }, { "raid": 10883, "displayorder": 0 } ]
在本系列的第四部分,学习如何编写移动游戏角色的控制代码。
2019-05-19T23:11:50
2019-05-19T23:11:50
10,874
/article-10874-1.html
> > 在本系列的第四部分,学习如何编写移动游戏角色的控制代码。 > > > ![](/data/attachment/album/201905/19/231156pei4mz4hfte5qmfd.png) 在这个系列的第一篇文章中,我解释了如何使用 Python 创建一个简单的[基于文本的骰子游戏](/article-9071-1.html)。在第二部分中,我向你们展示了如何从头开始构建游戏,即从 [创建游戏的环境](/article-10850-1.html) 开始。然后在第三部分,我们[创建了一个玩家妖精](/article-10858-1.html),并且使它在你的(而不是空的)游戏世界内生成。你可能已经注意到,如果你不能移动你的角色,那么游戏不是那么有趣。在本篇文章中,我们将使用 Pygame 来添加键盘控制,如此一来你就可以控制你的角色的移动。 在 Pygame 中有许多函数可以用来添加(除键盘外的)其他控制,但如果你正在敲击 Python 代码,那么你一定是有一个键盘的,这将成为我们接下来会使用的控制方式。一旦你理解了键盘控制,你可以自己去探索其他选项。 在本系列的第二篇文章中,你已经为退出游戏创建了一个按键,移动角色的(按键)原则也是相同的。但是,使你的角色移动起来要稍微复杂一点。 让我们从简单的部分入手:设置控制器按键。 ### 为控制你的玩家妖精设置按键 在 IDLE、Ninja-IDE 或文本编辑器中打开你的 Python 游戏脚本。 因为游戏需要时刻“监听”键盘事件,所以你写的代码需要连续运行。你知道应该把需要在游戏周期中持续运行的代码放在哪里吗? 如果你回答“放在主循环中”,那么你是正确的!记住除非代码在循环中,否则(大多数情况下)它只会运行仅一次。如果它被写在一个从未被使用的类或函数中,它可能根本不会运行。 要使 Python 监听传入的按键,将如下代码添加到主循环。目前的代码还不能产生任何的效果,所以使用 `print` 语句来表示成功的信号。这是一种常见的调试技术。 ``` while main == True: for event in pygame.event.get(): if event.type == pygame.QUIT: pygame.quit(); sys.exit() main = False if event.type == pygame.KEYDOWN: if event.key == pygame.K_LEFT or event.key == ord('a'): print('left') if event.key == pygame.K_RIGHT or event.key == ord('d'): print('right') if event.key == pygame.K_UP or event.key == ord('w'): print('jump') if event.type == pygame.KEYUP: if event.key == pygame.K_LEFT or event.key == ord('a'): print('left stop') if event.key == pygame.K_RIGHT or event.key == ord('d'): print('right stop') if event.key == ord('q'): pygame.quit() sys.exit() main = False ``` 一些人偏好使用键盘字母 `W`、`A`、`S` 和 `D` 来控制玩家角色,而另一些偏好使用方向键。因此确保你包含了两种选项。 注意:当你在编程时,同时考虑所有用户是非常重要的。如果你写代码只是为了自己运行,那么很可能你会成为你写的程序的唯一用户。更重要的是,如果你想找一个通过写代码赚钱的工作,你写的代码就应该让所有人都能运行。给你的用户选择权,比如提供使用方向键或 WASD 的选项,是一个优秀程序员的标志。 使用 Python 启动你的游戏,并在你按下“上下左右”方向键或 `A`、`D` 和 `W` 键的时候查看控制台窗口的输出。 ``` $ python ./your-name_game.py left left stop right right stop jump ``` 这验证了 Pygame 可以正确地检测按键。现在是时候来完成使妖精移动的艰巨任务了。 ### 编写玩家移动函数 为了使你的妖精移动起来,你必须为你的妖精创建一个属性代表移动。当你的妖精没有在移动时,这个变量被设为 `0`。 如果你正在为你的妖精设置动画,或者你决定在将来为它设置动画,你还必须跟踪帧来使走路循环保持在轨迹上。 在 `Player` 类中创建如下变量。开头两行作为上下文对照(如果你一直跟着做,你的代码中就已经有这两行),因此只需要添加最后三行: ``` def __init__(self): pygame.sprite.Sprite.__init__(self) self.movex = 0 # 沿 X 方向移动 self.movey = 0 # 沿 Y 方向移动 self.frame = 0 # 帧计数 ``` 设置好了这些变量,是时候去为妖精移动编写代码了。 玩家妖精不需要时刻响应控制,有时它并没有在移动。控制妖精的代码,仅仅只是玩家妖精所有能做的事情中的一小部分。在 Python 中,当你想要使一个对象做某件事并独立于剩余其他代码时,你可以将你的新代码放入一个函数。Python 的函数以关键词 `def` 开头,(该关键词)代表了定义函数。 在你的 `Player` 类中创建如下函数,来为你的妖精在屏幕上的位置增加几个像素。现在先不要担心你增加几个像素,这将在后续的代码中确定。 ``` def control(self,x,y): ''' 控制玩家移动 ''' self.movex += x self.movey += y ``` 为了在 Pygame 中移动妖精,你需要告诉 Python 在新的位置重绘妖精,以及这个新位置在哪里。 因为玩家妖精并不总是在移动,所以更新只需要是 Player 类中的一个函数。将此函数添加前面创建的 `control` 函数之后。 要使妖精看起来像是在行走(或者飞行,或是你的妖精应该做的任何事),你需要在按下适当的键时改变它在屏幕上的位置。要让它在屏幕上移动,你需要将它的位置(由 `self.rect.x` 和 `self.rect.y` 属性指定)重新定义为当前位置加上已应用的任意 `movex` 或 `movey`。(移动的像素数量将在后续进行设置。) ``` def update(self): ''' 更新妖精位置 ''' self.rect.x = self.rect.x + self.movex ``` 对 Y 方向做同样的处理: ``` self.rect.y = self.rect.y + self.movey ``` 对于动画,在妖精移动时推进动画帧,并使用相应的动画帧作为玩家的图像: ``` # 向左移动 if self.movex < 0: self.frame += 1 if self.frame > 3*ani: self.frame = 0 self.image = self.images[self.frame//ani] # 向右移动 if self.movex > 0: self.frame += 1 if self.frame > 3*ani: self.frame = 0 self.image = self.images[(self.frame//ani)+4] ``` 通过设置一个变量来告诉代码为你的妖精位置增加多少像素,然后在触发你的玩家妖精的函数时使用这个变量。 首先,在你的设置部分创建这个变量。在如下代码中,开头两行是上下文对照,因此只需要在你的脚本中增加第三行代码: ``` player_list = pygame.sprite.Group() player_list.add(player) steps = 10 # 移动多少个像素 ``` 现在你已经有了适当的函数和变量,使用你的按键来触发函数并将变量传递给你的妖精。 为此,将主循环中的 `print` 语句替换为玩家妖精的名字(`player`)、函数(`.control`)以及你希望玩家妖精在每个循环中沿 X 轴和 Y 轴移动的步数。 ``` if event.type == pygame.KEYDOWN: if event.key == pygame.K_LEFT or event.key == ord('a'): player.control(-steps,0) if event.key == pygame.K_RIGHT or event.key == ord('d'): player.control(steps,0) if event.key == pygame.K_UP or event.key == ord('w'): print('jump') if event.type == pygame.KEYUP: if event.key == pygame.K_LEFT or event.key == ord('a'): player.control(steps,0) if event.key == pygame.K_RIGHT or event.key == ord('d'): player.control(-steps,0) if event.key == ord('q'): pygame.quit() sys.exit() main = False ``` 记住,`steps` 变量代表了当一个按键被按下时,你的妖精会移动多少个像素。如果当你按下 `D` 或右方向键时,你的妖精的位置增加了 10 个像素。那么当你停止按下这个键时,你必须(将 `step`)减 10(`-steps`)来使你的妖精的动量回到 0。 现在尝试你的游戏。注意:它不会像你预想的那样运行。 为什么你的妖精仍无法移动?因为主循环还没有调用 `update` 函数。 将如下代码加入到你的主循环中来告诉 Python 更新你的玩家妖精的位置。增加带注释的那行: ``` player.update() # 更新玩家位置 player_list.draw(world) pygame.display.flip() clock.tick(fps) ``` 再次启动你的游戏来见证你的玩家妖精在你的命令下在屏幕上来回移动。现在还没有垂直方向的移动,因为这部分函数会被重力控制,不过这是另一篇文章中的课程了。 与此同时,如果你拥有一个摇杆,你可以尝试阅读 Pygame 中 [joystick](http://pygame.org/docs/ref/joystick.html) 模块相关的文档,看看你是否能通过这种方式让你的妖精移动起来。或者,看看你是否能通过[鼠标](http://pygame.org/docs/ref/mouse.html#module-pygame.mouse)与你的妖精互动。 最重要的是,玩的开心! ### 本教程中用到的所有代码 为了方便查阅,以下是目前本系列文章用到的所有代码。 ``` #!/usr/bin/env python3 # 绘制世界 # 添加玩家和玩家控制 # 添加玩家移动控制 # GNU All-Permissive License # Copying and distribution of this file, with or without modification, # are permitted in any medium without royalty provided the copyright # notice and this notice are preserved. This file is offered as-is, # without any warranty. import pygame import sys import os ''' Objects ''' class Player(pygame.sprite.Sprite): ''' 生成玩家 ''' def __init__(self): pygame.sprite.Sprite.__init__(self) self.movex = 0 self.movey = 0 self.frame = 0 self.images = [] for i in range(1,5): img = pygame.image.load(os.path.join('images','hero' + str(i) + '.png')).convert() img.convert_alpha() img.set_colorkey(ALPHA) self.images.append(img) self.image = self.images[0] self.rect = self.image.get_rect() def control(self,x,y): ''' 控制玩家移动 ''' self.movex += x self.movey += y def update(self): ''' 更新妖精位置 ''' self.rect.x = self.rect.x + self.movex self.rect.y = self.rect.y + self.movey # 向左移动 if self.movex < 0: self.frame += 1 if self.frame > 3*ani: self.frame = 0 self.image = self.images[self.frame//ani] # 向右移动 if self.movex > 0: self.frame += 1 if self.frame > 3*ani: self.frame = 0 self.image = self.images[(self.frame//ani)+4] ''' 设置 ''' worldx = 960 worldy = 720 fps = 40 # 帧刷新率 ani = 4 # 动画循环 clock = pygame.time.Clock() pygame.init() main = True BLUE = (25,25,200) BLACK = (23,23,23 ) WHITE = (254,254,254) ALPHA = (0,255,0) world = pygame.display.set_mode([worldx,worldy]) backdrop = pygame.image.load(os.path.join('images','stage.png')).convert() backdropbox = world.get_rect() player = Player() # 生成玩家 player.rect.x = 0 player.rect.y = 0 player_list = pygame.sprite.Group() player_list.add(player) steps = 10 # 移动速度 ''' 主循环 ''' while main == True: for event in pygame.event.get(): if event.type == pygame.QUIT: pygame.quit(); sys.exit() main = False if event.type == pygame.KEYDOWN: if event.key == pygame.K_LEFT or event.key == ord('a'): player.control(-steps,0) if event.key == pygame.K_RIGHT or event.key == ord('d'): player.control(steps,0) if event.key == pygame.K_UP or event.key == ord('w'): print('jump') if event.type == pygame.KEYUP: if event.key == pygame.K_LEFT or event.key == ord('a'): player.control(steps,0) if event.key == pygame.K_RIGHT or event.key == ord('d'): player.control(-steps,0) if event.key == ord('q'): pygame.quit() sys.exit() main = False # world.fill(BLACK) world.blit(backdrop, backdropbox) player.update() player_list.draw(world) # 更新玩家位置 pygame.display.flip() clock.tick(fps) ``` 你已经学了很多,但还仍有许多可以做。在接下来的几篇文章中,你将实现添加敌方妖精、模拟重力等等。与此同时,练习 Python 吧! --- via: <https://opensource.com/article/17/12/game-python-moving-player> 作者:[Seth Kenlon](https://opensource.com/users/seth) 选题:[lujun9972](https://github.com/lujun9972) 译者:[cycoe](https://github.com/cycoe) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
使用 restic 和 systemd 自动备份
Link Dupont
https://fedoramagazine.org/automate-backups-with-restic-and-systemd/
及时备份很重要。即使在 Fedora Magazine 中,备份软件 也是一个常见的讨论话题。本文演示了如何仅使用 systemd 以及 restic 来自动备份。
/data/attachment/album/201905/19/232002utzajvftojwlhojv.jpg.thumb.jpg
/data/attachment/album/201905/19/232002utzajvftojwlhojv.jpg
true
false
true
lujun9972
geekpi
wxy
false
[ "备份" ]
技术
{ "viewnum": 8625, "commentnum": 0, "favtimes": 1, "sharetimes": 0, "likes": 0 }
[]
[]
及时备份很重要。即使在 Fedora Magazine 中,备份软件 也是一个常见的讨论话题。本文演示了如何仅使用 systemd 以及 restic 来自动备份。
2019-05-19T23:19:56
2019-05-19T23:19:56
10,875
/article-10875-1.html
![](/data/attachment/album/201905/19/232002utzajvftojwlhojv.jpg) 及时备份很重要。即使在 [Fedora Magazine](https://fedoramagazine.org/?s=backup) 中,[备份软件](https://restic.net/) 也是一个常见的讨论话题。本文演示了如何仅使用 systemd 以及 `restic` 来自动备份。 有关 `restic` 的介绍,请查看我们的文章[在 Fedora 上使用 restic 进行加密备份](https://fedoramagazine.org/use-restic-encrypted-backups/)。然后继续阅读以了解更多详情。 为了自动创建快照以及清理数据,需要运行两个 systemd 服务。第一个运行*备份*命令的服务需要以常规频率运行。第二个服务负责数据清理。 如果你根本不熟悉 systemd,那么这是个很好的学习机会。查看 [Magazine 上关于 systemd 的系列文章](https://fedoramagazine.org/series/systemd-series/),从单元文件的这个入门开始: * [systemd 单元文件基础](https://fedoramagazine.org/systemd-getting-a-grip-on-units/) 如果你还没有安装 `restic`,请注意它在官方的 Fedora 仓库中。要安装它,请[带上 sudo](https://fedoramagazine.org/howto-use-sudo/) 运行此命令: ``` $ sudo dnf install restic ``` ### 备份 首先,创建 `~/.config/systemd/user/restic-backup.service`。将下面的文本复制并粘贴到文件中以获得最佳效果。 ``` [Unit] Description=Restic backup service [Service] Type=oneshot ExecStart=restic backup --verbose --one-file-system --tag systemd.timer $BACKUP_EXCLUDES $BACKUP_PATHS ExecStartPost=restic forget --verbose --tag systemd.timer --group-by "paths,tags" --keep-daily $RETENTION_DAYS --keep-weekly $RETENTION_WEEKS --keep-monthly $RETENTION_MONTHS --keep-yearly $RETENTION_YEARS EnvironmentFile=%h/.config/restic-backup.conf ``` 此服务引用环境文件来加载密钥(例如 `RESTIC_PASSWORD`)。创建 `~/.config/restic-backup.conf`。复制并粘贴以下内容以获得最佳效果。此示例使用 BackBlaze B2 存储。请相应地调整 ID、密钥、仓库和密码值。 ``` BACKUP_PATHS="/home/rupert" BACKUP_EXCLUDES="--exclude-file /home/rupert/.restic_excludes --exclude-if-present .exclude_from_backup" RETENTION_DAYS=7 RETENTION_WEEKS=4 RETENTION_MONTHS=6 RETENTION_YEARS=3 B2_ACCOUNT_ID=XXXXXXXXXXXXXXXXXXXXXXXXX B2_ACCOUNT_KEY=XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX RESTIC_REPOSITORY=b2:XXXXXXXXXXXXXXXXXX:/ RESTIC_PASSWORD=XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX ``` 现在已安装该服务,请重新加载 systemd:`systemctl -user daemon-reload`。尝试手动运行该服务以创建备份:`systemctl -user start restic-backup`。 因为该服务类型是*一次性*,它将运行一次并退出。验证服务运行并根据需要创建快照后,设置计时器以定期运行此服务。例如,要每天运行 `restic-backup.service`,请按如下所示创建 `~/.config/systemd/user/restic-backup.timer`。再次复制并粘贴此文本: ``` [Unit] Description=Backup with restic daily [Timer] OnCalendar=daily Persistent=true [Install] WantedBy=timers.target ``` 运行以下命令启用: ``` $ systemctl --user enable --now restic-backup.timer ``` ### 清理 虽然主服务运行 `forget` 命令仅保留保留策略中的快照,但实际上并未从 `restic` 仓库中删除数据。 `prune` 命令检查仓库和当前快照,并删除与快照无关的所有数据。由于 `prune` 可能是一个耗时的过程,因此无需在每次运行备份时运行。这是第二个服务和计时器的场景。首先,通过复制和粘贴此文本来创建文件 `~/.config/systemd/user/restic-prune.service`: ``` [Unit] Description=Restic backup service (data pruning) [Service] Type=oneshot ExecStart=restic prune EnvironmentFile=%h/.config/restic-backup.conf ``` 与主 `restic-backup.service` 服务类似,`restic-prune` 也是一次性服务,并且可以手动运行。设置完服务后,创建 `~/.config/systemd/user/restic-prune.timer` 并启用相应的计时器: ``` [Unit] Description=Prune data from the restic repository monthly [Timer] OnCalendar=monthly Persistent=true [Install] WantedBy=timers.target ``` 就是这些了!`restic` 将会每日运行并按月清理数据。 --- 图片来自 [Unsplash](https://unsplash.com/search/photos/archive?utm_source=unsplash&utm_medium=referral&utm_content=creditCopyText) 由 [Samuel Zeller](https://unsplash.com/photos/JuFcQxgCXwA?utm_source=unsplash&utm_medium=referral&utm_content=creditCopyText) 拍摄。 --- via: <https://fedoramagazine.org/automate-backups-with-restic-and-systemd/> 作者:[Link Dupont](https://fedoramagazine.org/author/linkdupont/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
思科针对 Nexus 数据中心交换机发出危急安全预警
Michael Cooney
https://www.networkworld.com/article/3392858/cisco-issues-critical-security-warning-for-nexus-data-center-switches.html
思科围绕着 Nexus 的交换机、Firepower 防火墙和其他设备,发布了 40 个安全报告。
/data/attachment/album/201905/19/233905xvq57wia679zq6qg.jpg.thumb.jpg
/data/attachment/album/201905/19/233905xvq57wia679zq6qg.jpg
true
false
true
lujun9972
hopefully2333
wxy
false
[ "思科", "安全" ]
新闻
{ "viewnum": 4728, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
思科围绕着 Nexus 的交换机、Firepower 防火墙和其他设备,发布了 40 个安全报告。
2019-05-19T23:38:44
2019-05-19T23:38:44
10,876
/article-10876-1.html
> > 思科围绕着 Nexus 的交换机、Firepower 防火墙和其他设备,发布了 40 个安全报告。 > > > ![Thinkstock](/data/attachment/album/201905/19/233905xvq57wia679zq6qg.jpg) 日前,思科发布了 40 个左右的安全报告,但只有其中的一个被评定为“[危急](https://tools.cisco.com/security/center/content/CiscoSecurityAdvisory/cisco-sa-20190501-nexus9k-sshkey)”:思科 Nexus 9000 系列应用中心基础设施(ACI)模式数据中心交换机中的一个漏洞,可能会让攻击者隐秘地访问到系统资源。 这个新发现的漏洞,被通用漏洞评分系统给到了 9.8 分(满分 10 分),思科表示,它是思科 Nexus 9000 系列的安全 shell (ssh)密钥管理方面的问题,这个漏洞允许远程攻击者以 root 用户的权限来连接到受影响的系统。 思科表示,“**这个漏洞是因为所有的设备都存在一对默认的 ssh 密钥对**,攻击者可以使用提取到的密钥材料,并通过 IPv6 来创建连接到目标设备的 SSH 连接。这个漏洞仅能通过 IPv6 来进行利用,IPv4 不会被攻击”。 型号为 Nexus 9000 系列且 NX-OS 软件版本在 14.1 之前的设备会受此漏洞的影响,该公司表示没有解决这个问题的变通办法。 然而,思科公司已经为解决这个漏洞[发布了免费的软件更新](https://www.cisco.com/c/en/us/about/legal/cloud-and-software/end_user_license_agreement.html)。 该公司同样对 Nexus 9000 系列发布了一个“高危”级别的安全预警报告,报告中表示存在一种攻击,允许攻击者以 root 用户权限在受影响的设备上执行任意操作系统命令。思科表示,如果要用这种方式攻击成功,攻击者需要对应设备的有效的管理员用户凭证。 [思科表示](https://tools.cisco.com/security/center/content/CiscoSecurityAdvisory/cisco-sa-20190501-nexus9k-rpe),这个漏洞是由于过于宽泛的系统文件权限造成的。攻击者可以通过向受影响的设备进行认证,构造一个精心设计的命令字符串,并将这个字符串写入到特定位置的文件里。攻击者通过这种方式来利用这个漏洞。 思科发布了解决这个漏洞的软件更新。 另外两个被评为“高危”级别的漏洞的影响范围同样包括 Nexus 9000 系列: * 思科 Nexus 9000 系列软件后台操作功能中的[漏洞](https://tools.cisco.com/security/center/content/CiscoSecurityAdvisory/cisco-sa-20190501-aci-hw-clock-util),能够允许一个已认证的本地攻击者在受影响的设备上提权到 root 权限。这个漏洞是由于在受影响的设备上用户提供的文件验证不充分。思科表示,攻击者可以通过登录到受影响设备的命令行界面,并在文件系统的特定目录中构造一个精心设计过的文件,以此来利用这个漏洞。 * 交换机软件后台操作功能中的[弱点](https://tools.cisco.com/security/center/content/CiscoSecurityAdvisory/cisco-sa-20190501-aci-hw-clock-util)能够允许攻击者登录到受影响设备的命令行界面,并在文件系统的特定目录里创建一个精心构造过的文件。思科表示,这个漏洞是由于在受影响的设备上用户提供的文件验证不充分。 思科同样为这些漏洞[发布了软件更新](https://www.cisco.com/c/en/us/about/legal/cloud-and-software/end_user_license_agreement.html)。 此外,这些安全警告中的一部分是针对思科 FirePower 防火墙系列中大量的“高危”漏洞警告。 例如,思科[写道](https://tools.cisco.com/security/center/content/CiscoSecurityAdvisory/cisco-sa-20190501-frpwr-smb-snort),思科 Firepower 威胁防御软件的 SMB 协议预处理检测引擎中的多个漏洞能够允许未认证的相邻、远程攻击者造成拒绝服务攻击(DoS)的情况。 思科表示,思科 Firepower 2100 系列中思科 Firepower 软件里的内部数据包处理功能有[另一个漏洞](https://tools.cisco.com/security/center/content/CiscoSecurityAdvisory/cisco-sa-20190501-frpwr-dos),能够让未认证的远程攻击者造成受影响的设备停止处理流量,从而导致 DOS 的情况。 [软件补丁](https://www.cisco.com/c/en/us/about/legal/cloud-and-software/end_user_license_agreement.html)可用于这些漏洞。 其他的产品,比如思科[自适应安全虚拟设备](https://tools.cisco.com/security/center/content/CiscoSecurityAdvisory/cisco-sa-20190501-asa-ipsec-dos)和 [web 安全设备](https://tools.cisco.com/security/center/content/CiscoSecurityAdvisory/cisco-sa-20190501-wsa-privesc)同样也有高优先级的补丁。 --- via: <https://www.networkworld.com/article/3392858/cisco-issues-critical-security-warning-for-nexus-data-center-switches.html> 作者:[Michael Cooney](https://www.networkworld.com/author/Michael-Cooney/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[hopefully2333](https://github.com/hopefully2333) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
使用 Libki 来管理公共用户访问计算机
Don Watkins
https://opensource.com/article/19/5/libki-computer-access
Libki 是一个跨平台的计算机预约和用时管理系统。
/data/attachment/album/201905/20/230201d26yuo261uu6s61i.jpg.thumb.jpg
/data/attachment/album/201905/20/230201d26yuo261uu6s61i.jpg
true
false
true
lujun9972
geekpi
wxy
false
[ "公共", "计算机" ]
观点
{ "viewnum": 4924, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
Libki 是一个跨平台的计算机预约和用时管理系统。
2019-05-20T23:02:49
2019-05-20T23:02:49
10,880
/article-10880-1.html
> > Libki 是一个跨平台的计算机预约和用时管理系统。 > > > ![](/data/attachment/album/201905/20/230201d26yuo261uu6s61i.jpg) 提供公共计算机的图书馆、学校、学院和其他组织需要一种管理用户访问权限的好方法 —— 否则,就无法阻止某些人独占机器并确保每个人都有公平的用时。这是 [Libki](https://libki.org/) 要解决的问题。 Libki 是一个面向 Windows 和 Linux PC 的开源、跨平台的计算机预约和用时管理系统。它提供了一个基于 Web 的服务器和一个基于 Web 的管理系统,员工可以使用它来管理计算机访问,包括创建和删除用户、设置帐户用时限制、登出和禁止用户以及设置访问限制。 根据其首席开发人员 [Kyle Hall](https://www.linkedin.com/in/kylemhallinfo/) 所说,Libki 主要用于 PC 用时控制,作为 Envisionware 出品的专有计算机访问控制软件的开源替代品。当用户登录 Libki 管理的计算机时,他们会有一段使用计算机的时间。时间到了之后,他们就会被登出。时间默认设置为 45 分钟,但可以使用基于 Web 的管理系统轻松调整。一些组织在登出用户之前提供 24 小时访问权限,而有的组织则使用它来跟踪使用情况而不设置用时限制。 Kyle 目前是 [ByWater Solutions](https://opensource.com/article/19/4/software-libraries) 的首席开发人员,该公司为图书馆提供开源软件解决方案(包括 Libki)。在职业生涯早期,他在宾夕法尼亚州的[米德维尔公共图书馆](https://meadvillelibrary.org/)担任 IT 技术时开发了 Libki。在其他员工的午休期间,偶尔会要求他关注孩子们的房间。图书馆使用纸质注册表来管理对儿童房间计算机的访问,这意味着不断的监督和检查,以确保来到那里的人能够公平地使用。 Kyle 说,“我发现这很笨拙而不便的,我想找到一个解决方案。这个解决方案需要同时是 FOSS 和跨平台的。最后,没有现有的软件适合我们的特殊需求,那就是为什么我开发了 Libki。“ 或者,正如 Libki 的网站所宣称的那样,“Libki 的诞生是为了避免与青少年打交道(的麻烦),现在允许图书馆员避免与世界各地的青少年打交道(的麻烦)!” ### 易于安装和使用 我最近决定在我经常在那里做志愿者的当地的公共图书馆尝试 Libki。我按照[文档](https://manual.libki.org/master/libki-manual.html#_automatic_installation)在 Ubuntu 18.04 Server 中自动进行了安装,它很快就启动起来了。 我计划在我们当地的图书馆支持 Libki,但我想知道在那些没有 IT 相关经验的人或者无法构建和部署服务器的图书馆是怎样的。Kyle 说:“ByWater Solutions 可以云端托管 Libki 服务器,这使得每个人的维护和管理变得更加简单。” Kyle 表示,ByWater 并不打算将 Libki 与其最受欢迎的产品,开源集成图书馆系统 (ILS)Koha 或其支持的任何其他[项目](https://bywatersolutions.com/projects)捆绑在一起。他说: “Libki 和 Koha 是不同[类型]的软件,满足不同的需求,但它们在图书馆中确实很好地协同工作。事实上,我很早就开发了 Libki 的 SIP2 集成,因此它可以支持使用 Koha 进行单点登录。“ ### 如何贡献 Libki 客户端是 GPLv3 许可,Libki 服务器是 AGPLv3 许可。Kyle 说他希望 Libki 拥有一个更加活跃和强大的社区,项目一直在寻找新人加入其[贡献者](https://github.com/Libki/libki-server/graphs/contributors)。如果你想参加,请访问 [Libki 社区页面](https://libki.org/community/)并加入邮件列表。 --- via: <https://opensource.com/article/19/5/libki-computer-access> 作者:[Don Watkins](https://opensource.com/users/don-watkins/users/tony-thomas) 选题:[lujun9972](https://github.com/lujun9972) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
在 Linux 命令行下使用“原力”
Alan Formy-duval
https://opensource.com/article/19/5/may-the-force-linux
和绝地武士的原力一样,-f 参数是很强大的,并伴随着潜在的毁灭性,在你能用好的时候又很便利。
/data/attachment/album/201905/21/083913jqbwn4ywq1jqnb9y.jpg.thumb.jpg
/data/attachment/album/201905/21/083913jqbwn4ywq1jqnb9y.jpg
true
false
true
lujun9972
Moelf
wxy
false
[ "命令行", "强制" ]
技术
{ "viewnum": 7139, "commentnum": 0, "favtimes": 2, "sharetimes": 0, "likes": 0 }
[]
[]
和绝地武士的原力一样,-f 参数是很强大的,并伴随着潜在的毁灭性,在你能用好的时候又很便利。
2019-05-21T08:39:00
2019-05-21T08:39:00
10,881
/article-10881-1.html
> > 和绝地武士的原力一样,`-f` 参数是很强大的,并伴随着潜在的毁灭性,在你能用好的时候又很便利。 > > > ![](/data/attachment/album/201905/21/083913jqbwn4ywq1jqnb9y.jpg) 近些年来,科幻发烧友开始在每年的 5 月 4 日庆祝[星战节](https://www.starwars.com/star-wars-day),其口号是绝地武士的祝福语”愿<ruby> 原力 <rt> Force </rt></ruby>和你同在“。虽然大多数 Linux 用户可能不是绝地武士,但我们依然可以使用<ruby> 原力 <rt> Force </rt></ruby>。自然,如果尤达大师只是叫天行者卢克输入什么 “man X-Wing 战机“、“man 原力”,或者 RTFM(去读原力手册,肯定是这个意思对不对),那这电影肯定没啥意思。(LCTT 译注:RTFM 是 “Read The Fucking Manual” 的缩写 —— 读读该死的手册吧)。 很多 Linux 命令都有 `-f` 选项,意思你现在肯定也知道了,原力(LCTT 译注:force 选项原意是“强制”)!很多时候你先尝试执行命令然后失败了,或者提示你需要补充输入更多选项。通常这都是为了保护你试着改变的文件,或者告诉用户该设备正忙或文件已经存在之类的。 如果你不想被这些提醒打扰或者压根就不在乎,就使用原力吧! 不过要小心,通常使用原力选项是摧毁性的。所以用户一定要格外注意!并且确保你知道自己在做什么!用原力就要承担后果! 以下是一些常见 Linux 命令的原力选项和它们的效果,以及常见使用场景。 ### cp `cp` 是 “copy” 的缩写,这是个被用来复制文件或者目录的命令。其 [man 页面](http://man7.org/linux/man-pages/man1/cp.1.html) 说: > > -f, –force > > > 如果已经存在的目标文件无法被打开,删除它并重试 > > > 你可能会用它来处理只读状态的文件: ``` [alan@workstation ~]$ ls -l total 8 -rw-rw---- 1 alan alan 13 May 1 12:24 Hoth -r--r----- 1 alan alan 14 May 1 12:23 Naboo [alan@workstation ~]$ cat Hoth Naboo Icy Planet Green Planet ``` 如果你想要复制一个叫做 `Hoth` 的文件到 `Naboo`,但因为 `Naboo` 目前是只读状态,`cp` 命令不会执行: ``` [alan@workstation ~]$ cp Hoth Naboo cp: cannot create regular file 'Naboo': Permission denied ``` 但通过使用原力,`cp` 会强制执行。`Hoth` 的内容和文件权限会直接被复制到 `Naboo`: ``` [alan@workstation ~]$ cp -f Hoth Naboo [alan@workstation ~]$ cat Hoth Naboo Icy Planet Icy Planet [alan@workstation ~]$ ls -l total 8 -rw-rw---- 1 alan alan 12 May 1 12:32 Hoth -rw-rw---- 1 alan alan 12 May 1 12:38 Naboo ``` ### ln `ln` 命令是用来在文件之间建立链接的,其 [man 页面](http://man7.org/linux/man-pages/man1/ln.1.html) 描述的原力选项如下: > > -f, –force > > > 移除当前存在的文件 > > > 假设莱娅公主在维护一个 Java 应用服务器,并且她又一个存放这所有 Java 版本的目录,比如: ``` leia@workstation:/usr/lib/java$ ls -lt total 28 lrwxrwxrwx 1 leia leia 12 Mar 5 2018 jdk -> jdk1.8.0_162 drwxr-xr-x 8 leia leia 4096 Mar 5 2018 jdk1.8.0_162 drwxr-xr-x 8 leia leia 4096 Aug 28 2017 jdk1.8.0_144 ``` 正如你所看到的,这里有很多个版本的 JDK,并有一个符号链接指向最新版的 JDK。她接着用一个脚本来安装最新版本的 JDK。但是如果没有原力选项的话以下命令是不会成功的: ``` tar xvzmf jdk1.8.0_181.tar.gz -C jdk1.8.0_181/ ln -vs jdk1.8.0_181 jdk ``` `tar` 命令会解压 .gz 文件到一个特定的目标目录,但 `ln` 命令会失败,因为这个链接已经存在了。这样的结果是该符号链接不会指向最新版本的 JDK: ``` leia@workstation:/usr/lib/java$ ln -vs jdk1.8.0_181 jdk ln: failed to create symbolic link 'jdk/jdk1.8.0_181': File exists leia@workstation:/usr/lib/java$ ls -lt total 28 drwxr-x--- 2 leia leia 4096 May 1 15:44 jdk1.8.0_181 lrwxrwxrwx 1 leia leia 12 Mar 5 2018 jdk -> jdk1.8.0_162 drwxr-xr-x 8 leia leia 4096 Mar 5 2018 jdk1.8.0_162 drwxr-xr-x 8 leia leia 4096 Aug 28 2017 jdk1.8.0_144 ``` 她可以通过使用原力选项强制 `ln` 更新链接,但这里她还需要使用 `-n`,`-n` 是因为这个情况下链接其实指向一个目录而非文件。这样的话,链接就会正确指向最新版本的JDK了。 ``` leia@workstation:/usr/lib/java$ ln -vsnf jdk1.8.0_181 jdk 'jdk' -> 'jdk1.8.0_181' leia@workstation:/usr/lib/java$ ls -lt total 28 lrwxrwxrwx 1 leia leia 12 May 1 16:13 jdk -> jdk1.8.0_181 drwxr-x--- 2 leia leia 4096 May 1 15:44 jdk1.8.0_181 drwxr-xr-x 8 leia leia 4096 Mar 5 2018 jdk1.8.0_162 drwxr-xr-x 8 leia leia 4096 Aug 28 2017 jdk1.8.0_144 ``` 你可以配置 Java 应用使其一直使用在 `/usr/lib/java/jdk` 处的 JDK,而不用每次升级都更新。 ### rm `rm` 命令是 “remove” 的缩写(也叫做删除,因为某些系统 `del` 命令也干这事)。其 [man 页面](http://man7.org/linux/man-pages/man1/rm.1.html) 对原力选项的描述如下: > > -f, –force > > > 无视不存在的文件或者参数,不向用户确认 > > > 如果你尝试删除一个只读的文件,`rm` 会寻求用户的确认: ``` [alan@workstation ~]$ ls -l total 4 -r--r----- 1 alan alan 16 May 1 11:38 B-wing [alan@workstation ~]$ rm B-wing rm: remove write-protected regular file 'B-wing'? ``` 你一定要输入 `y` 或者 `n` 来回答确认才能让 `rm` 命令继续。如果你使用原力选项,`rm` 就不会寻求你的确认而直接删除文件: ``` [alan@workstation ~]$ rm -f B-wing [alan@workstation ~]$ ls -l total 0 [alan@workstation ~]$ ``` 最常见的 `rm` 原力选项用法是用来删除目录。 `-r`(递归)选项会让 `rm` 删除目录,当和原力选项结合起来,它会删除这个文件夹及其内容而无需用户确认。 `rm` 命令和一些选项结合起来是致命的,一直以来互联网上都有关于误用 `rm` 删除整个系统之类的玩笑和鬼故事。比如最出名的一不当心执行 `rm -rf .` 会直接删除目录和文件(没有用户确认)。(LCTT 译注:真的这么干过的校对飘过~~请按下回车前再三确认:我是谁,我在哪里,我在干什么) ### userdel `userdel` 命令使用来删除用户的。其 [man 页面](http://man7.org/linux/man-pages/man8/userdel.8.html) 是这样描述它的原力选项的: > > -f, –force > > > 这个选项会强制移除用户,即便用户当前处于登入状态。它同时还会强制 删除用户的目录和邮件存储,即便这个用户目录被别人共享或者邮件存储并不 属于这个用户。如果 `USERGROUPS_ENAB` 在 `/etc/login.defs` 里是 `yes` 并且有一个组和此用户同名的话,这个组也会被移除,即便这个组还是别 的用户的主要用户组也一样。 > > > 注意:这个选项有风险并可能让系统处于不稳定状态。 > > > 当欧比旺抵达穆斯塔法星的时候,他知道自己的使命。他需要删掉达斯·维达的用户账户——而达斯还在里面呢。 ``` [root@workstation ~]# ps -fu darth UID PID PPID C STIME TTY TIME CMD darth 7663 7655 0 13:28 pts/3 00:00:00 -bash [root@workstation ~]# userdel darth userdel: user darth is currently used by process 7663 ``` 因为达斯还登在系统里,欧比旺需要使用原力选项操作 `userdel`。这能强制删除当前登入的用户。 ``` [root@workstation ~]# userdel -f darth userdel: user darth is currently used by process 7663 [root@workstation ~]# finger darth finger: darth: no such user. [root@workstation ~]# ps -fu darth error: user name does not exist ``` 正如我们所见到的一样,`finger` 和 `ps` 命令让我们确认了达斯已经被删除了。 ### 在 Shell 脚本里使用原力 很多命令都有原力选项,而在 shell 脚本里他们特别有用。因为我们经常使用脚本完成定期或者自动化的任务,避免用户输入至关重要,不然的话自动任务就无法完成了 我希望上面的几个例子能帮你理解一些需要使用原力的情况。你在命令行使用原力或把它们写入脚本之前应当完全理解它们的作用。误用原力会有毁灭性的后果——时常是对整个系统,甚至不仅限于一台设备。 --- via: <https://opensource.com/article/19/5/may-the-force-linux> 作者:[Alan Formy-Duval](https://opensource.com/users/alanfdoss) 选题:[lujun9972](https://github.com/lujun9972) 译者:[Jerry Ling](https://github.com/Moelf) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
如何向你的 Python 游戏中添加一个敌人
Seth Kenlon
https://opensource.com/article/18/5/pygame-enemy
在本系列的第五部分,学习如何增加一个坏蛋与你的好人战斗。
/data/attachment/album/201905/21/191627huku0uo0ngny39kd.png.thumb.jpg
/data/attachment/album/201905/21/191627huku0uo0ngny39kd.png
true
false
true
lujun9972
cycoe
wxy
false
[ "Pygame" ]
软件开发
{ "viewnum": 6974, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[ { "raid": 10874, "displayorder": 0 }, { "raid": 10902, "displayorder": 0 } ]
在本系列的第五部分,学习如何增加一个坏蛋与你的好人战斗。
2019-05-21T19:16:23
2019-05-21T19:16:23
10,883
/article-10883-1.html
> > 在本系列的第五部分,学习如何增加一个坏蛋与你的好人战斗。 > > > ![](/data/attachment/album/201905/21/191627huku0uo0ngny39kd.png) 在本系列的前几篇文章中(参见 [第一部分](/article-9071-1.html)、[第二部分](/article-10850-1.html)、[第三部分](/article-10858-1.html) 以及 [第四部分](/article-10874-1.html)),你已经学习了如何使用 Pygame 和 Python 在一个空白的视频游戏世界中生成一个可玩的角色。但没有恶棍,英雄又将如何? 如果你没有敌人,那将会是一个非常无聊的游戏。所以在此篇文章中,你将为你的游戏添加一个敌人并构建一个用于创建关卡的框架。 在对玩家妖精实现全部功能之前,就来实现一个敌人似乎就很奇怪。但你已经学到了很多东西,创造恶棍与与创造玩家妖精非常相似。所以放轻松,使用你已经掌握的知识,看看能挑起怎样一些麻烦。 针对本次训练,你能够从 [Open Game Art](https://opengameart.org) 下载一些预创建的素材。此处是我使用的一些素材: * 印加花砖(LCTT 译注:游戏中使用的花砖贴图) * 一些侵略者 * 妖精、角色、物体以及特效 ### 创造敌方妖精 是的,不管你意识到与否,你其实已经知道如何去实现敌人。这个过程与创造一个玩家妖精非常相似: 1. 创建一个类用于敌人生成 2. 创建 `update` 方法使得敌人能够检测碰撞 3. 创建 `move` 方法使得敌人能够四处游荡 从类入手。从概念上看,它与你的 `Player` 类大体相同。你设置一张或者一组图片,然后设置妖精的初始位置。 在继续下一步之前,确保你有一张你的敌人的图像,即使只是一张临时图像。将图像放在你的游戏项目的 `images` 目录(你放置你的玩家图像的相同目录)。 如果所有的活物都拥有动画,那么游戏看起来会好得多。为敌方妖精设置动画与为玩家妖精设置动画具有相同的方式。但现在,为了保持简单,我们使用一个没有动画的妖精。 在你代码 `objects` 节的顶部,使用以下代码创建一个叫做 `Enemy` 的类: ``` class Enemy(pygame.sprite.Sprite): ''' 生成一个敌人 ''' def __init__(self,x,y,img): pygame.sprite.Sprite.__init__(self) self.image = pygame.image.load(os.path.join('images',img)) self.image.convert_alpha() self.image.set_colorkey(ALPHA) self.rect = self.image.get_rect() self.rect.x = x self.rect.y = y ``` 如果你想让你的敌人动起来,使用让你的玩家拥有动画的 [相同方式](/article-10874-1.html)。 ### 生成一个敌人 你能够通过告诉类,妖精应使用哪张图像,应出现在世界上的什么地方,来生成不只一个敌人。这意味着,你能够使用相同的敌人类,在游戏世界的任意地方生成任意数量的敌方妖精。你需要做的仅仅是调用这个类,并告诉它应使用哪张图像,以及你期望生成点的 X 和 Y 坐标。 再次,这从原则上与生成一个玩家精灵相似。在你脚本的 `setup` 节添加如下代码: ``` enemy = Enemy(20,200,'yeti.png') # 生成敌人 enemy_list = pygame.sprite.Group() # 创建敌人组 enemy_list.add(enemy) # 将敌人加入敌人组 ``` 在示例代码中,X 坐标为 20,Y 坐标为 200。你可能需要根据你的敌方妖精的大小,来调整这些数字,但尽量生成在一个范围内,使得你的玩家妖精能够碰到它。`Yeti.png` 是用于敌人的图像。 接下来,将敌人组的所有敌人绘制在屏幕上。现在,你只有一个敌人,如果你想要更多你可以稍后添加。一但你将一个敌人加入敌人组,它就会在主循环中被绘制在屏幕上。中间这一行是你需要添加的新行: ``` player_list.draw(world) enemy_list.draw(world) # 刷新敌人 pygame.display.flip() ``` 启动你的游戏,你的敌人会出现在游戏世界中你选择的 X 和 Y 坐标处。 ### 关卡一 你的游戏仍处在襁褓期,但你可能想要为它添加另一个关卡。为你的程序做好未来规划非常重要,因为随着你学会更多的编程技巧,你的程序也会随之成长。即使你现在仍没有一个完整的关卡,你也应该按照假设会有很多关卡来编程。 思考一下“关卡”是什么。你如何知道你是在游戏中的一个特定关卡中呢? 你可以把关卡想成一系列项目的集合。就像你刚刚创建的这个平台中,一个关卡,包含了平台、敌人放置、战利品等的一个特定排列。你可以创建一个类,用来在你的玩家附近创建关卡。最终,当你创建了一个以上的关卡,你就可以在你的玩家达到特定目标时,使用这个类生成下一个关卡。 将你写的用于生成敌人及其群组的代码,移动到一个每次生成新关卡时都会被调用的新函数中。你需要做一些修改,使得每次你创建新关卡时,你都能够创建一些敌人。 ``` class Level(): def bad(lvl,eloc): if lvl == 1: enemy = Enemy(eloc[0],eloc[1],'yeti.png') # 生成敌人 enemy_list = pygame.sprite.Group() # 生成敌人组 enemy_list.add(enemy) # 将敌人加入敌人组 if lvl == 2: print("Level " + str(lvl) ) return enemy_list ``` `return` 语句确保了当你调用 `Level.bad` 方法时,你将会得到一个 `enemy_list` 变量包含了所有你定义的敌人。 因为你现在将创造敌人作为每个关卡的一部分,你的 `setup` 部分也需要做些更改。不同于创造一个敌人,取而代之的是你必须去定义敌人在那里生成,以及敌人属于哪个关卡。 ``` eloc = [] eloc = [200,20] enemy_list = Level.bad( 1, eloc ) ``` 再次运行游戏来确认你的关卡生成正确。与往常一样,你应该会看到你的玩家,并且能看到你在本章节中添加的敌人。 ### 痛击敌人 一个敌人如果对玩家没有效果,那么它不太算得上是一个敌人。当玩家与敌人发生碰撞时,他们通常会对玩家造成伤害。 因为你可能想要去跟踪玩家的生命值,因此碰撞检测发生在 `Player` 类,而不是 `Enemy` 类中。当然如果你想,你也可以跟踪敌人的生命值。它们之间的逻辑与代码大体相似,现在,我们只需要跟踪玩家的生命值。 为了跟踪玩家的生命值,你必须为它确定一个变量。代码示例中的第一行是上下文提示,那么将第二行代码添加到你的 Player 类中: ``` self.frame = 0 self.health = 10 ``` 在你 `Player` 类的 `update` 方法中,添加如下代码块: ``` hit_list = pygame.sprite.spritecollide(self, enemy_list, False) for enemy in hit_list: self.health -= 1 print(self.health) ``` 这段代码使用 Pygame 的 `sprite.spritecollide` 方法,建立了一个碰撞检测器,称作 `enemy_hit`。每当它的父类妖精(生成检测器的玩家妖精)的碰撞区触碰到 `enemy_list` 中的任一妖精的碰撞区时,碰撞检测器都会发出一个信号。当这个信号被接收,`for` 循环就会被触发,同时扣除一点玩家生命值。 一旦这段代码出现在你 `Player` 类的 `update` 方法,并且 `update` 方法在你的主循环中被调用,Pygame 会在每个时钟滴答中检测一次碰撞。 ### 移动敌人 如果你愿意,静止不动的敌人也可以很有用,比如能够对你的玩家造成伤害的尖刺和陷阱。但如果敌人能够四处徘徊,那么游戏将更富有挑战。 与玩家妖精不同,敌方妖精不是由玩家控制,因此它必须自动移动。 最终,你的游戏世界将会滚动。那么,如何在游戏世界自身滚动的情况下,使游戏世界中的敌人前后移动呢? 举个例子,你告诉你的敌方妖精向右移动 10 步,向左移动 10 步。但敌方妖精不会计数,因此你需要创建一个变量来跟踪你的敌人已经移动了多少步,并根据计数变量的值来向左或向右移动你的敌人。 首先,在你的 `Enemy` 类中创建计数变量。添加以下代码示例中的最后一行代码: ``` self.rect = self.image.get_rect() self.rect.x = x self.rect.y = y self.counter = 0 # 计数变量 ``` 然后,在你的 `Enemy` 类中创建一个 `move` 方法。使用 if-else 循环来创建一个所谓的死循环: * 如果计数在 0 到 100 之间,向右移动; * 如果计数在 100 到 200 之间,向左移动; * 如果计数大于 200,则将计数重置为 0。 死循环没有终点,因为循环判断条件永远为真,所以它将永远循环下去。在此情况下,计数器总是介于 0 到 100 或 100 到 200 之间,因此敌人会永远地从左向右再从右向左移动。 你用于敌人在每个方向上移动距离的具体值,取决于你的屏幕尺寸,更确切地说,取决于你的敌人移动的平台大小。从较小的值开始,依据习惯逐步提高数值。首先进行如下尝试: ``` def move(self): ''' 敌人移动 ''' distance = 80 speed = 8 if self.counter >= 0 and self.counter <= distance: self.rect.x += speed elif self.counter >= distance and self.counter <= distance*2: self.rect.x -= speed else: self.counter = 0 self.counter += 1 ``` 你可以根据需要调整距离和速度。 当你现在启动游戏,这段代码有效果吗? 当然不,你应该也知道原因。你必须在主循环中调用 `move` 方法。如下示例代码中的第一行是上下文提示,那么添加最后两行代码: ``` enemy_list.draw(world) #refresh enemy for e in enemy_list: e.move() ``` 启动你的游戏看看当你打击敌人时发生了什么。你可能需要调整妖精的生成地点,使得你的玩家和敌人能够碰撞。当他们发生碰撞时,查看 [IDLE](https://docs.python.org/3/library/idle.html) 或 [Ninja-IDE](http://ninja-ide.org/) 的控制台,你可以看到生命值正在被扣除。 ![](/data/attachment/album/201905/21/191628exeuttrih3788s78.png) 你应该已经注意到,在你的玩家和敌人接触时,生命值在时刻被扣除。这是一个问题,但你将在对 Python 进行更多练习以后解决它。 现在,尝试添加更多敌人。记得将每个敌人加入 `enemy_list`。作为一个练习,看看你能否想到如何改变不同敌方妖精的移动距离。 --- via: <https://opensource.com/article/18/5/pygame-enemy> 作者:[Seth Kenlon](https://opensource.com/users/seth) 选题:[lujun9972](https://github.com/lujun9972) 译者:[cycoe](https://github.com/cycoe) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
详解 Linux 中的虚拟文件系统
Alison Chariken
https://opensource.com/article/19/3/virtual-filesystems-linux
虚拟文件系统是一种神奇的抽象,它使得 “一切皆文件” 哲学在 Linux 中成为了可能。
/data/attachment/album/201905/22/000042mnqey57e7fpqam25.jpg.thumb.jpg
/data/attachment/album/201905/22/000042mnqey57e7fpqam25.jpg
true
false
true
lujun9972
wxy
wxy
true
[ "VFS", "文件系统" ]
技术
{ "viewnum": 20122, "commentnum": 1, "favtimes": 4, "sharetimes": 0, "likes": 0 }
[ { "postip": "171.8.221.2", "message": "奶吃 菇的脚脖", "username": "来自河南郑州的 Firefox 67.0|GNU/Linux 用户", "date": "2019-05-25T21:55:52" } ]
[]
虚拟文件系统是一种神奇的抽象,它使得 “一切皆文件” 哲学在 Linux 中成为了可能。
2019-05-22T00:01:12
2019-05-22T00:01:12
10,884
/article-10884-1.html
> > 虚拟文件系统是一种神奇的抽象,它使得 “一切皆文件” 哲学在 Linux 中成为了可能。 > > > ![](/data/attachment/album/201905/22/000042mnqey57e7fpqam25.jpg) 什么是文件系统?根据早期的 Linux 贡献者和作家 [Robert Love](https://www.pearson.com/us/higher-education/program/Love-Linux-Kernel-Development-3rd-Edition/PGM202532.html) 所说,“文件系统是一个遵循特定结构的数据的分层存储。” 不过,这种描述也同样适用于 VFAT(<ruby> 虚拟文件分配表 <rt> Virtual File Allocation Table </rt></ruby>)、Git 和[Cassandra](http://cassandra.apache.org/)(一种 [NoSQL 数据库](https://en.wikipedia.org/wiki/NoSQL))。那么如何区别文件系统呢? ### 文件系统基础概念 Linux 内核要求文件系统必须是实体,它还必须在持久对象上实现 `open()`、`read()` 和 `write()` 方法,并且这些实体需要有与之关联的名字。从 [面向对象编程](http://lwn.net/Articles/444910/) 的角度来看,内核将通用文件系统视为一个抽象接口,这三大函数是“虚拟”的,没有默认定义。因此,内核的默认文件系统实现被称为虚拟文件系统(VFS)。 ![](/data/attachment/album/201905/22/000121yromuxmaoj0ulocr.png "Console") *如果我们能够 `open()`、`read()` 和 `write()`,它就是一个文件,如这个主控台会话所示。* VFS 是著名的类 Unix 系统中 “一切皆文件” 概念的基础。让我们看一下它有多奇怪,上面的小小演示体现了字符设备 `/dev/console` 实际的工作。该图显示了一个在虚拟电传打字控制台(tty)上的交互式 Bash 会话。将一个字符串发送到虚拟控制台设备会使其显示在虚拟屏幕上。而 VFS 甚至还有其它更奇怪的属性。例如,它[可以在其中寻址](https://lwn.net/Articles/22355/)。 我们熟悉的文件系统如 ext4、NFS 和 /proc 都在名为 [file\_operations](https://git.kernel.org/pub/scm/linux/kernel/git/torvalds/linux.git/tree/include/linux/fs.h) 的 C 语言数据结构中提供了三大函数的定义。此外,个别的文件系统会以熟悉的面向对象的方式扩展和覆盖了 VFS 功能。正如 Robert Love 指出的那样,VFS 的抽象使 Linux 用户可以轻松地将文件复制到(或复制自)外部操作系统或抽象实体(如管道),而无需担心其内部数据格式。在用户空间这一侧,通过系统调用,进程可以使用文件系统方法之一 `read()` 从文件复制到内核的数据结构中,然后使用另一种文件系统的方法 `write()` 输出数据。 属于 VFS 基本类型的函数定义本身可以在内核源代码的 [fs/\*.c 文件](https://git.kernel.org/pub/scm/linux/kernel/git/torvalds/linux.git/tree/fs) 中找到,而 `fs/` 的子目录中包含了特定的文件系统。内核还包含了类似文件系统的实体,例如 cgroup、`/dev` 和 tmpfs,在引导过程的早期需要它们,因此定义在内核的 `init/` 子目录中。请注意,cgroup、`/dev` 和 tmpfs 不会调用 `file_operations` 的三大函数,而是直接读取和写入内存。 下图大致说明了用户空间如何访问通常挂载在 Linux 系统上的各种类型文件系统。像管道、dmesg 和 POSIX 时钟这样的结构在此图中未显示,它们也实现了 `struct file_operations`,而且其访问也要通过 VFS 层。 ![How userspace accesses various types of filesystems](/data/attachment/album/201905/22/000131kd3ao1dpmds9vfzz.png "How userspace accesses various types of filesystems") VFS 是个“垫片层”,位于系统调用和特定 `file_operations` 的实现(如 ext4 和 procfs)之间。然后,`file_operations` 函数可以与特定于设备的驱动程序或内存访问器进行通信。tmpfs、devtmpfs 和 cgroup 不使用 `file_operations` 而是直接访问内存。 VFS 的存在促进了代码重用,因为与文件系统相关的基本方法不需要由每种文件系统类型重新实现。代码重用是一种被广泛接受的软件工程最佳实践!唉,但是如果重用的代码[引入了严重的错误](https://lwn.net/Articles/774114/),那么继承常用方法的所有实现都会受到影响。 ### /tmp:一个小提示 找出系统中存在的 VFS 的简单方法是键入 `mount | grep -v sd | grep -v :/`,在大多数计算机上,它将列出所有未驻留在磁盘上,同时也不是 NFS 的已挂载文件系统。其中一个列出的 VFS 挂载肯定是 `/tmp`,对吧? ![Man with shocked expression](/data/attachment/album/201905/22/000133l29nckqi73q7e7c3.jpg "Man with shocked expression") *谁都知道把 /tmp 放在物理存储设备上简直是疯了!图片:<https://tinyurl.com/ybomxyfo>* 为什么把 `/tmp` 留在存储设备上是不可取的?因为 `/tmp` 中的文件是临时的(!),并且存储设备比内存慢,所以创建了 tmpfs 这种文件系统。此外,比起内存,物理设备频繁写入更容易磨损。最后,`/tmp` 中的文件可能包含敏感信息,因此在每次重新启动时让它们消失是一项功能。 不幸的是,默认情况下,某些 Linux 发行版的安装脚本仍会在存储设备上创建 /tmp。如果你的系统出现这种情况,请不要绝望。按照一直优秀的 [Arch Wiki](https://wiki.archlinux.org/index.php/Tmpfs) 上的简单说明来解决问题就行,记住分配给 tmpfs 的内存就不能用于其他目的了。换句话说,包含了大文件的庞大的 tmpfs 可能会让系统耗尽内存并崩溃。 另一个提示:编辑 `/etc/fstab` 文件时,请务必以换行符结束,否则系统将无法启动。(猜猜我怎么知道。) ### /proc 和 /sys 除了 `/tmp` 之外,大多数 Linux 用户最熟悉的 VFS 是 `/proc` 和 `/sys`。(`/dev` 依赖于共享内存,而没有 `file_operations` 结构)。为什么有两种呢?让我们来看看更多细节。 procfs 为用户空间提供了内核及其控制的进程的瞬时状态的快照。在 `/proc` 中,内核发布有关其提供的设施的信息,如中断、虚拟内存和调度程序。此外,`/proc/sys` 是存放可以通过 [sysctl 命令](http://man7.org/linux/man-pages/man8/sysctl.8.html)配置的设置的地方,可供用户空间访问。单个进程的状态和统计信息在 `/proc/<PID>` 目录中报告。 ![Console](/data/attachment/album/201905/22/000137wrbqohssrsssczy7.png "Console") */proc/meminfo 是一个空文件,但仍包含有价值的信息。* `/proc` 文件的行为说明了 VFS 可以与磁盘上的文件系统不同。一方面,`/proc/meminfo` 包含了可由命令 `free` 展现出来的信息。另一方面,它还是空的!怎么会这样?这种情况让人联想起康奈尔大学物理学家 N. David Mermin 在 1985 年写的一篇名为《[没有人看见月亮的情况吗?](http://www-f1.ijs.si/%7Eramsak/km1/mermin.moon.pdf)现实和量子理论》。事实是当进程从 `/proc` 请求数据时内核再收集有关内存的统计信息,而且当没有人查看它时,`/proc` 中的文件实际上没有任何内容。正如 [Mermin 所说](https://en.wikiquote.org/wiki/David_Mermin),“这是一个基本的量子学说,一般来说,测量不会揭示被测属性的预先存在的价值。”(关于月球的问题的答案留作练习。) ![Full moon](/data/attachment/album/201905/22/000142apaxqz5tblyloxlb.jpg "Full moon") *当没有进程访问它们时,/proc 中的文件为空。([来源](https://commons.wikimedia.org/wiki/Moon#/media/File:Full_Moon_Luc_Viatour.jpg))* procfs 的空文件是有道理的,因为那里可用的信息是动态的。sysfs 的情况则不同。让我们比较一下 `/proc` 与 `/sys` 中不为空的文件数量。 ![](/data/attachment/album/201905/22/000143aoelodhm8h8od3dd.png) procfs 只有一个不为空的文件,即导出的内核配置,这是一个例外,因为每次启动只需要生成一次。另一方面,`/sys` 有许多更大一些的文件,其中大多数由一页内存组成。通常,sysfs 文件只包含一个数字或字符串,与通过读取 `/proc/meminfo` 等文件生成的信息表格形成鲜明对比。 sysfs 的目的是将内核称为 “kobject” 的可读写属性公开给用户空间。kobject 的唯一目的是引用计数:当删除对 kobject 的最后一个引用时,系统将回收与之关联的资源。然而,`/sys` 构成了内核著名的“[到用户空间的稳定 ABI](https://git.kernel.org/pub/scm/linux/kernel/git/torvalds/linux.git/tree/Documentation/ABI/stable)”,它的大部分内容[在任何情况下都没有人能“破坏”](https://lkml.org/lkml/2012/12/23/75)。但这并不意味着 sysfs 中的文件是静态,这与易失性对象的引用计数相反。 内核的稳定 ABI 限制了 `/sys` 中可能出现的内容,而不是任何给定时刻实际存在的内容。列出 sysfs 中文件的权限可以了解如何设置或读取设备、模块、文件系统等的可配置、可调参数。逻辑上强调 procfs 也是内核稳定 ABI 的一部分的结论,尽管内核的[文档](https://git.kernel.org/pub/scm/linux/kernel/git/torvalds/linux.git/tree/Documentation/ABI/stable)没有明确说明。 ![Console](/data/attachment/album/201905/22/000148dg53m59ytjklfa0e.png "Console") *sysfs 中的文件确切地描述了实体的每个属性,并且可以是可读的、可写的,或两者兼而有之。文件中的“0”表示 SSD 不可移动的存储设备。* ### 用 eBPF 和 bcc 工具一窥 VFS 内部 了解内核如何管理 sysfs 文件的最简单方法是观察它的运行情况,在 ARM64 或 x86\_64 上观看的最简单方法是使用 eBPF。eBPF(<ruby> 扩展的伯克利数据包过滤器 <rt> extended Berkeley Packet Filter </rt></ruby>)由[在内核中运行的虚拟机](https://events.linuxfoundation.org/sites/events/files/slides/bpf_collabsummit_2015feb20.pdf)组成,特权用户可以从命令行进行查询。内核源代码告诉读者内核可以做什么;而在一个启动的系统上运行 eBPF 工具会显示内核实际上做了什么。 令人高兴的是,通过 [bcc](https://github.com/iovisor/bcc) 工具入门使用 eBPF 非常容易,这些工具在[主要 Linux 发行版的软件包](https://github.com/iovisor/bcc/blob/master/INSTALL.md) 中都有,并且已经由 Brendan Gregg [给出了充分的文档说明](http://brendangregg.com/ebpf.html)。bcc 工具是带有小段嵌入式 C 语言片段的 Python 脚本,这意味着任何对这两种语言熟悉的人都可以轻松修改它们。据当前统计,[bcc/tools 中有 80 个 Python 脚本](https://github.com/iovisor/bcc/tree/master/tools),使得系统管理员或开发人员很有可能能够找到与她/他的需求相关的已有脚本。 要了解 VFS 在正在运行中的系统上的工作情况,请尝试使用简单的 [vfscount](https://github.com/iovisor/bcc/blob/master/tools/vfscount_example.txt) 或 [vfsstat](https://github.com/iovisor/bcc/blob/master/tools/vfsstat.py) 脚本,这可以看到每秒都会发生数十次对 `vfs_open()` 及其相关的调用。 ![Console - vfsstat.py](/data/attachment/album/201905/22/000149kufkpp5mgyufkgao.png "Console - vfsstat.py") *vfsstat.py 是一个带有嵌入式 C 片段的 Python 脚本,它只是计数 VFS 函数调用。* 作为一个不太重要的例子,让我们看一下在运行的系统上插入 USB 记忆棒时 sysfs 中会发生什么。 ![Console when USB is inserted](/data/attachment/album/201905/22/000158t9cbs20dy9gdjwj8.png "Console when USB is inserted") *用 eBPF 观察插入 USB 记忆棒时 /sys 中会发生什么,简单的和复杂的例子。* 在上面的第一个简单示例中,只要 `sysfs_create_files()` 命令运行,[trace.py](https://github.com/iovisor/bcc/blob/master/tools/trace_example.txt) bcc 工具脚本就会打印出一条消息。我们看到 `sysfs_create_files()` 由一个 kworker 线程启动,以响应 USB 棒的插入事件,但是它创建了什么文件?第二个例子说明了 eBPF 的强大能力。这里,`trace.py` 正在打印内核回溯(`-K` 选项)以及 `sysfs_create_files()` 创建的文件的名称。单引号内的代码段是一些 C 源代码,包括一个易于识别的格式字符串,所提供的 Python 脚本[引入 LLVM 即时编译器(JIT)](https://events.static.linuxfound.org/sites/events/files/slides/bpf_collabsummit_2015feb20.pdf) 来在内核虚拟机内编译和执行它。必须在第二个命令中重现完整的 `sysfs_create_files()` 函数签名,以便格式字符串可以引用其中一个参数。在此 C 片段中出错会导致可识别的 C 编译器错误。例如,如果省略 `-I` 参数,则结果为“无法编译 BPF 文本”。熟悉 C 或 Python 的开发人员会发现 bcc 工具易于扩展和修改。 插入 USB 记忆棒后,内核回溯显示 PID 7711 是一个 kworker 线程,它在 sysfs 中创建了一个名为 `events` 的文件。使用 `sysfs_remove_files()` 进行相应的调用表明,删除 USB 记忆棒会导致删除该 `events` 文件,这与引用计数的想法保持一致。在 USB 棒插入期间(未显示)在 eBPF 中观察 `sysfs_create_link()` 表明创建了不少于 48 个符号链接。 无论如何,`events` 文件的目的是什么?使用 [cscope](http://northstar-www.dartmouth.edu/doc/solaris-forte/manuals/c/user_guide/cscope.html) 查找函数 [`__device_add_disk()`](https://git.kernel.org/pub/scm/linux/kernel/git/torvalds/linux.git/tree/block/genhd.c#n665) 显示它调用 `disk_add_events()`,并且可以将 “mediachange” 或 “ejectrequest” 写入到该文件。这里,内核的块层通知用户空间该 “磁盘” 的出现和消失。考虑一下这种检查 USB 棒的插入的工作原理的方法与试图仅从源头中找出该过程的速度有多快。 ### 只读根文件系统使得嵌入式设备成为可能 确实,没有人通过拔出电源插头来关闭服务器或桌面系统。为什么?因为物理存储设备上挂载的文件系统可能有挂起的(未完成的)写入,并且记录其状态的数据结构可能与写入存储器的内容不同步。当发生这种情况时,系统所有者将不得不在下次启动时等待 [fsck 文件系统恢复工具](http://www.man7.org/linux/man-pages/man8/fsck.8.html) 运行完成,在最坏的情况下,实际上会丢失数据。 然而,狂热爱好者会听说许多物联网和嵌入式设备,如路由器、恒温器和汽车现在都运行着 Linux。许多这些设备几乎完全没有用户界面,并且没有办法干净地让它们“解除启动”。想一想启动电池耗尽的汽车,其中[运行 Linux 的主机设备](https://wiki.automotivelinux.org/_media/eg-rhsa/agl_referencehardwarespec_v0.1.0_20171018.pdf) 的电源会不断加电断电。当引擎最终开始运行时,系统如何在没有长时间 fsck 的情况下启动呢?答案是嵌入式设备依赖于[只读根文件系统](https://elinux.org/images/1/1f/Read-only_rootfs.pdf)(简称 ro-rootfs)。 ![Photograph of a console](/data/attachment/album/201905/22/000216e4oafh6dgdf6aohe.jpg "Photograph of a console") *ro-rootfs 是嵌入式系统不经常需要 fsck 的原因。 来源:<https://tinyurl.com/yxoauoub>* ro-rootfs 提供了许多优点,虽然这些优点不如耐用性那么显然。一个是,如果 Linux 进程不可以写入,那么恶意软件也无法写入 `/usr` 或 `/lib`。另一个是,基本上不可变的文件系统对于远程设备的现场支持至关重要,因为支持人员拥有理论上与现场相同的本地系统。也许最重要(但也是最微妙)的优势是 ro-rootfs 迫使开发人员在项目的设计阶段就决定好哪些系统对象是不可变的。处理 ro-rootfs 可能经常是不方便甚至是痛苦的,[编程语言中的常量变量](https://www.meetup.com/ACCU-Bay-Area/events/drpmvfytlbqb/)经常就是这样,但带来的好处很容易偿还这种额外的开销。 对于嵌入式开发人员,创建只读根文件系统确实需要做一些额外的工作,而这正是 VFS 的用武之地。Linux 需要 `/var` 中的文件可写,此外,嵌入式系统运行的许多流行应用程序会尝试在 `$HOME` 中创建配置的点文件。放在家目录中的配置文件的一种解决方案通常是预生成它们并将它们构建到 rootfs 中。对于 `/var`,一种方法是将其挂载在单独的可写分区上,而 `/` 本身以只读方式挂载。使用绑定或叠加挂载是另一种流行的替代方案。 ### 绑定和叠加挂载以及在容器中的使用 运行 [man mount](http://man7.org/linux/man-pages/man8/mount.8.html) 是了解<ruby> 绑定挂载 <rt> bind mount </rt></ruby>和<ruby> 叠加挂载 <rt> overlay mount </rt></ruby>的最好办法,这种方法使得嵌入式开发人员和系统管理员能够在一个路径位置创建文件系统,然后以另外一个路径将其提供给应用程序。对于嵌入式系统,这代表着可以将文件存储在 `/var` 中的不可写闪存设备上,但是在启动时将 tmpfs 中的路径叠加挂载或绑定挂载到 `/var` 路径上,这样应用程序就可以在那里随意写它们的内容了。下次加电时,`/var` 中的变化将会消失。叠加挂载为 tmpfs 和底层文件系统提供了联合,允许对 ro-rootfs 中的现有文件进行直接修改,而绑定挂载可以使新的空 tmpfs 目录在 ro-rootfs 路径中显示为可写。虽然叠加文件系统是一种适当的文件系统类型,而绑定挂载由 [VFS 命名空间工具](https://git.kernel.org/pub/scm/linux/kernel/git/torvalds/linux.git/tree/Documentation/filesystems/sharedsubtree.txt) 实现的。 根据叠加挂载和绑定挂载的描述,没有人会对 [Linux 容器](https://coreos.com/os/docs/latest/kernel-modules.html) 中大量使用它们感到惊讶。让我们通过运行 bcc 的 `mountsnoop` 工具监视当使用 [systemd-nspawn](https://www.freedesktop.org/software/systemd/man/systemd-nspawn.html) 启动容器时会发生什么: ![Console - system-nspawn invocation](/data/attachment/album/201905/22/000217ko24h1ltzilnvce3.png "Console - system-nspawn invocation") *在 mountsnoop.py 运行的同时,system-nspawn 调用启动容器。* 让我们看看发生了什么: ![Console - Running mountsnoop](/data/attachment/album/201905/22/000225r35lrsnrsy7la0ac.png "Console - Running mountsnoop") *在容器 “启动” 期间运行 `mountsnoop` 可以看到容器运行时很大程度上依赖于绑定挂载。(仅显示冗长输出的开头)* 这里,`systemd-nspawn` 将主机的 procfs 和 sysfs 中的选定文件按其 rootfs 中的路径提供给容器。除了设置绑定挂载时的 `MS_BIND` 标志之外,`mount` 系统调用的一些其它标志用于确定主机命名空间和容器中的更改之间的关系。例如,绑定挂载可以将 `/proc` 和 `/sys` 中的更改传播到容器,也可以隐藏它们,具体取决于调用。 ### 总结 理解 Linux 内部结构看似是一项不可能完成的任务,因为除了 Linux 用户空间应用程序和 glibc 这样的 C 库中的系统调用接口,内核本身也包含大量代码。取得进展的一种方法是阅读一个内核子系统的源代码,重点是理解面向用户空间的系统调用和头文件以及主要的内核内部接口,这里以 `file_operations` 表为例。`file_operations` 使得“一切都是文件”得以可以实际工作,因此掌握它们收获特别大。顶级 `fs/` 目录中的内核 C 源文件构成了虚拟文件系统的实现,虚拟文件​​系统是支持流行的文件系统和存储设备的广泛且相对简单的互操作性的垫片层。通过 Linux 命名空间进行绑定挂载和覆盖挂载是 VFS 魔术,它使容器和只读根文件系统成为可能。结合对源代码的研究,eBPF 内核工具及其 bcc 接口使得探测内核比以往任何时候都更简单。 非常感谢 [Akkana Peck](http://shallowsky.com/) 和 [Michael Eager](http://eagercon.com/) 的评论和指正。 Alison Chaiken 也于 3 月 7 日至 10 日在加利福尼亚州帕萨迪纳举行的第 17 届南加州 Linux 博览会([SCaLE 17x](https://www.socallinuxexpo.org/))上演讲了[本主题](https://www.socallinuxexpo.org/scale/17x/presentations/virtual-filesystems-why-we-need-them-and-how-they-work)。 --- via: <https://opensource.com/article/19/3/virtual-filesystems-linux> 作者:[Alison Chariken](https://opensource.com/users/chaiken) 选题:[lujun9972](https://github.com/lujun9972) 译者:[wxy](https://github.com/wxy) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
构建更小的容器镜像的技巧
Muayyad Alsadi
https://fedoramagazine.org/building-smaller-container-images/
Linux 容器已经成为一个热门话题,保证容器镜像较小被认为是一个好习惯。本文提供了有关如何构建较小 Fedora 容器镜像的一些技巧。
/data/attachment/album/201905/22/111342rthd3dh2d0ps4d2d.jpg.thumb.jpg
/data/attachment/album/201905/22/111342rthd3dh2d0ps4d2d.jpg
true
false
true
lujun9972
geekpi
wxy
false
[ "容器", "Dockerfile" ]
容器与云
{ "viewnum": 6123, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
Linux 容器已经成为一个热门话题,保证容器镜像较小被认为是一个好习惯。本文提供了有关如何构建较小 Fedora 容器镜像的一些技巧。
2019-05-22T11:13:38
2019-05-22T11:13:38
10,885
/article-10885-1.html
![](/data/attachment/album/201905/22/111342rthd3dh2d0ps4d2d.jpg) Linux 容器已经成为一个热门话题,保证容器镜像较小被认为是一个好习惯。本文提供了有关如何构建较小 Fedora 容器镜像的一些技巧。 ### microdnf Fedora 的 DNF 是用 Python 编写的,因为它有各种各样的插件,因此它的设计是可扩展的。但是 有一个 Fedora 基本容器镜像替代品,它使用一个较小的名为 [microdnf](https://github.com/rpm-software-management/microdnf) 的包管理器,使用 C 编写。要在 Dockerfile 中使用这个最小的镜像,`FROM` 行应该如下所示: ``` FROM registry.fedoraproject.org/fedora-minimal:30 ``` 如果你的镜像不需要像 Python 这样的典型 DNF 依赖项,例如,如果你在制作 NodeJS 镜像时,那么这是一个重要的节省项。 ### 在一个层中安装和清理 为了节省空间,使用 `dnf clean all` 或其 microdnf 等效的 `microdnf clean all` 删除仓库元数据非常重要。但是你不应该分两步执行此操作,因为这实际上会将这些文件保存在容器镜像中,然后在另一层中将其标记为删除。要正确地执行此操作,你应该像这样一步完成安装和清理: ``` FROM registry.fedoraproject.org/fedora-minimal:30 RUN microdnf install nodejs && microdnf clean all ``` ### 使用 microdnf 进行模块化 模块化是一种给你选择不同堆栈版本的方法。例如,你可能需要在项目中用非 LTS 的 NodeJS v11,旧的 LTS NodeJS v8 用于另一个,最新的 LTS NodeJS v10 用于另一个。你可以使用冒号指定流。 ``` # dnf module list # dnf module install nodejs:8 ``` `dnf module install` 命令意味着两个命令,一个启用流,另一个是从它安装 nodejs。 ``` # dnf module enable nodejs:8 # dnf install nodejs ``` 尽管 `microdnf` 不提供与模块化相关的任何命令,但是可以启用带有配置文件的模块,并且 libdnf(被 microdnf 使用)[似乎](https://bugzilla.redhat.com/show_bug.cgi?id=1575626)支持模块化流。该文件看起来像这样: ``` /etc/dnf/modules.d/nodejs.module [nodejs] name=nodejs stream=8 profiles= state=enabled ``` 使用模块化的 `microdnf` 的完整 Dockerfile 如下所示: ``` FROM registry.fedoraproject.org/fedora-minimal:30 RUN \ echo -e "[nodejs]\nname=nodejs\nstream=8\nprofiles=\nstate=enabled\n" > /etc/dnf/modules.d/nodejs.module && \ microdnf install nodejs zopfli findutils busybox && \ microdnf clean all ``` ### 多阶段构建 在许多情况下,你可能需要大量的无需用于运行软件的构建时依赖项,例如构建一个静态链接依赖项的 Go 二进制文件。多阶段构建是分离应用构建和应用运行时的有效方法。 例如,下面的 Dockerfile 构建了一个 Go 应用 [confd](https://github.com/kelseyhightower/confd)。 ``` # building container FROM registry.fedoraproject.org/fedora-minimal AS build RUN mkdir /go && microdnf install golang && microdnf clean all WORKDIR /go RUN export GOPATH=/go; CGO_ENABLED=0 go get github.com/kelseyhightower/confd FROM registry.fedoraproject.org/fedora-minimal WORKDIR / COPY --from=build /go/bin/confd /usr/local/bin CMD ["confd"] ``` 通过在 `FROM` 指令之后添加 `AS` 并从基本容器镜像中添加另一个 `FROM` 然后使用 `COPY --from=` 指令将内容从*构建*的容器复制到第二个容器来完成多阶段构建。 可以使用 `podman` 构建并运行此 Dockerfile: ``` $ podman build -t myconfd . $ podman run -it myconfd ``` --- via: <https://fedoramagazine.org/building-smaller-container-images/> 作者:[Muayyad Alsadi](https://fedoramagazine.org/author/alsadi/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
使用 singledispatch 在 Python 中追溯地添加方法
Moshe Zadka
https://opensource.com/article/19/5/python-singledispatch
在我们覆盖 7 个 PyPI 库的系列文章中了解更多解决 Python 问题的信息。
/data/attachment/album/201905/23/093515sgmu4auml9caz54l.jpg.thumb.jpg
/data/attachment/album/201905/23/093515sgmu4auml9caz54l.jpg
true
false
true
lujun9972
geekpi
wxy
false
[ "Python" ]
软件开发
{ "viewnum": 4231, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[ { "raid": 10871, "displayorder": 0 } ]
在我们覆盖 7 个 PyPI 库的系列文章中了解更多解决 Python 问题的信息。
2019-05-23T09:37:20
2019-05-23T09:37:20
10,887
/article-10887-1.html
> > 在我们覆盖 7 个 PyPI 库的系列文章中了解更多解决 Python 问题的信息。 > > > ![](/data/attachment/album/201905/23/093515sgmu4auml9caz54l.jpg) Python 是当今使用最多[流行的编程语言](https://opensource.com/article/18/5/numbers-python-community-trends)之一,因为:它是开源的,它具有广泛的用途(例如 Web 编程、业务应用、游戏、科学编程等等),它有一个充满活力和专注的社区支持它。这个社区是我们在 [Python Package Index](https://pypi.org/)(PyPI)中提供如此庞大、多样化的软件包的原因,用以扩展和改进 Python。并解决不可避免的问题。 在本系列中,我们将介绍七个可以帮助你解决常见 Python 问题的 PyPI 库。今天,我们将研究 [singledispatch](https://pypi.org/project/singledispatch/),这是一个能让你追溯地向 Python 库添加方法的库。 ### singledispatch 想象一下,你有一个有 Circle、Square 等类的“形状”库。 Circle 类有半径、Square 有边、Rectangle 有高和宽。我们的库已经存在,我们不想改变它。 然而,我们想给库添加一个面积计算。如果我们不会和其他人共享这个库,我们只需添加 `area` 方法,这样我们就能调用 `shape.area()` 而无需关心是什么形状。 虽然可以进入类并添加一个方法,但这是一个坏主意:没有人希望他们的类会被添加新的方法,程序会因奇怪的方式出错。 相反,functools 中的 `singledispatch` 函数可以帮助我们。 ``` @singledispatch def get_area(shape): raise NotImplementedError("cannot calculate area for unknown shape", shape) ``` `get_area` 函数的“基类”实现会报错。这保证了如果我们出现一个新的形状时,我们会明确地报错而不是返回一个无意义的结果。 ``` @get_area.register(Square) def _get_area_square(shape): return shape.side ** 2 @get_area.register(Circle) def _get_area_circle(shape): return math.pi * (shape.radius ** 2) ``` 这种方式的好处是如果某人写了一个匹配我们代码的*新*形状,它们可以自己实现 `get_area`。 ``` from area_calculator import get_area @attr.s(auto_attribs=True, frozen=True) class Ellipse: horizontal_axis: float vertical_axis: float @get_area.register(Ellipse) def _get_area_ellipse(shape): return math.pi * shape.horizontal_axis * shape.vertical_axis ``` *调用* `get_area` 很直接。 ``` print(get_area(shape)) ``` 这意味着我们可以将大量的 `if isintance()`/`elif isinstance()` 的代码以这种方式修改,而无需修改接口。下一次你要修改 if isinstance,你试试 `singledispatch! 在本系列的下一篇文章中,我们将介绍 tox,一个用于自动化 Python 代码测试的工具。 #### 回顾本系列的前几篇文章: * [Cython](/article-10859-1.html) * [Black](/article-10864-1.html) * [attrs](/article-10871-1.html) --- via: <https://opensource.com/article/19/5/python-singledispatch> 作者:[Moshe Zadka](https://opensource.com/users/moshez) 选题:[lujun9972](https://github.com/lujun9972) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
新手教程:如何 SSH 进入树莓派
Chinmay
https://itsfoss.com/ssh-into-raspberry/
在这篇树莓派文章中,你将学到如何在树莓派中启用 SSH 以及之后如何通过 SSH 进入树莓派。
/data/attachment/album/201905/23/100653bcz4f6cv2f66h2x6.png.thumb.jpg
/data/attachment/album/201905/23/100653bcz4f6cv2f66h2x6.png
true
false
true
lujun9972
tomjlw
wxy
false
[ "SSH", "树莓派" ]
树莓派
{ "viewnum": 62878, "commentnum": 7, "favtimes": 2, "sharetimes": 0, "likes": 0 }
[ { "postip": "112.42.87.241", "message": "教程非常详细,非常感谢!", "username": "来自112.42.87.241的 Chrome 63.0|Windows 10 用户", "date": "2020-02-12T10:42:26" }, { "postip": "223.104.24.101", "message": "非常感谢,成功进入树莓派", "username": "来自贵州的 Chrome Mobile 57.0|Android 10 用户", "date": "2020-09-09T19:01:43" }, { "postip": "120.244.192.157", "message": "我的只是提示ssh拒绝了密码<br />\r\n为什么!!!<br />\r\n我上辈子造了什么孽,就这样了!!!!!!!!!!!!!!!!!", "username": "来自120.244.192.157的 Chrome 101.0|Windows 10 用户", "date": "2022-05-14T18:44:17" }, { "postip": "153.3.60.158", "message": "可能是ip地址错了", "username": "来自江苏南京的 Chrome 107.0|Windows 10 用户", "date": "2022-11-16T14:53:03" }, { "postip": "39.128.14.131", "message": "我的树莓派烧录之后打开电源就是开不了电源", "username": "来自39.128.14.131的 Chrome 95.0|Windows 10 用户", "date": "2023-03-06T20:53:37" }, { "postip": "39.128.14.131", "message": "我的树莓派烧录完成之后,打开电源连不上网络", "username": "来自39.128.14.131的 Chrome 95.0|Windows 10 用户", "date": "2023-03-06T20:54:57" }, { "postip": "39.128.14.131", "message": "我的树莓派烧录完成之后,打开电源连不上网络", "username": "来自39.128.14.131的 Chrome 95.0|Windows 10 用户", "date": "2023-03-06T20:54:58" } ]
[]
在这篇树莓派文章中,你将学到如何在树莓派中启用 SSH 以及之后如何通过 SSH 进入树莓派。
2019-05-23T10:06:51
2019-05-23T10:06:51
10,888
/article-10888-1.html
> > 在这篇树莓派文章中,你将学到如何在树莓派中启用 SSH 以及之后如何通过 SSH 进入树莓派。 > > > 在你可以用[树莓派](https://www.raspberrypi.org/)做的所有事情中,将其作为一个家庭网络的服务器是十分流行的做法。小体积与低功耗使它成为运行轻量级服务器的完美设备。 在这种情况下你做得到的事情之一是能够每次在树莓派上无须接上显示器、键盘、鼠标以及走到放置你的树莓派的地方就可以运行指令。 你可以从其它任意电脑、笔记本、台式机甚至你的手机通过 SSH([Secure Shell](https://en.wikipedia.org/wiki/Secure_Shell))登入你的树莓派来做到这一点。让我展示给你看: ### 如何 SSH 进入树莓派 ![](/data/attachment/album/201905/23/100653bcz4f6cv2f66h2x6.png) 我假设你已经[在你的树莓派上运行 Raspbian](https://itsfoss.com/tutorial-how-to-install-raspberry-pi-os-raspbian-wheezy/) 并已经成功通过有线或者无线网连进网络了。你的树莓派接入网络这点是很重要的,否则你无法通过 SSH 连接树莓派(抱歉说出这种显而易见的事实)。 #### 步骤一:在树莓派上启用 SSH SSH 在树莓派上是默认关闭的,因此在你安装好全新的 Raspbian 后打开树莓派时,你需要启用它。 首先通过菜单进入树莓派的配置界面。 ![树莓派菜单,树莓派配置](/data/attachment/album/201905/23/100655poogrff9jr1oiibf.png) 现在进入<ruby> 接口 <rt> interfaces </rt></ruby>标签,启动 SSH 并重启你的树莓派。 ![在树莓派上启动 SSH](/data/attachment/album/201905/23/100656r657aj55nzxhrkh4.png) 你也可以通过终端直接启动 SSH。仅需输入命令 `sudo raspi-config` 然后进入高级设置以启用 SSH。 #### 步骤二: 找到树莓派的 IP 地址 在大多数情况下,你的树莓派会被分配一个看起来长得像 `192.168.x.x` 或者 `10.x.x.x` 的本地 IP 地址。你可以[使用多种 Linux 命令来找到 IP 地址](https://linuxhandbook.com/find-ip-address/)。 我在这使用古老而好用的 `ifconfig` 命令,但是你也可以使用 `ip address`。 ``` ifconfig ``` ![树莓派网络配置](/data/attachment/album/201905/23/100658ghyyzla8tagj8yy8.png) 这行命令展现了所有活跃中的网络适配器以及其配置的列表。第一个条目(`eth0`)展示了例如`192.168.2.105` 的有效 IP 地址。我用有线网将我的树莓派连入网络,因此这里显示的是 `eth0`。如果你用无线网的话在叫做 `wlan0` 的条目下查看。 你也可以用其他方法例如查看你的路由器或者调制解调器的网络设备表以找到 IP 地址。 #### 步骤三:SSH 进你的树莓派 既然你已经启用了 SSH 功能并且找到了 IP 地址,你可以从任何电脑 SSH 进入你的树莓派。你同样需要树莓派的用户名和密码。 默认用户名和密码是: * 用户名:`pi` * 密码:`raspberry` 如果你已改变了默认的密码,那就使用新的而不是以上的密码。理想状态下你必须改变默认的密码。在过去,有一款[恶意软件感染数千使用默认用户名和密码的树莓派设备](https://itsfoss.com/raspberry-pi-malware-threat/)。 (在 Mac 或 Linux 上)从你想要 SSH 进树莓派的电脑上打开终端输入以下命令,在 Windows 上,你可以用类似 [Putty](https://itsfoss.com/putty-linux/) 的 SSH 客户端。 这里,使用你在之前步骤中找到的 IP 地址。 ``` ssh [受保护的邮件] ``` > > 注意: 确保你的树莓派和你用来 SSH 进入树莓派的电脑接入了同一个网络。 > > > ![通过命令行 SSH](/data/attachment/album/201905/23/100659yig3tz5h77z734gg.png) 第一次你会看到一个警告,输入 `yes` 并按下回车。 ![输入密码 \(默认是 ‘raspberry‘\)](/data/attachment/album/201905/23/100700jceoyma9p42z7hwp.png) 现在,输入密码按下回车。 ![成功通过 SSH 登入](/data/attachment/album/201905/23/100701shhf6o4qd4b3okfq.png) 成功登入你将会看到树莓派的终端。现在你可以通过这个终端无需物理上访问你的树莓派就可以远程(在当前网络内)在它上面运行指令。 在此之上你也可以设置 SSH 密钥这样每次通过 SSH 登入时就可以无需输入密码,但那完全是另一个话题了。 我希望你通过跟着这个教程已能够 SSH 进入你的树莓派。在下方评论中让我知道你打算用你的树莓派做些什么! --- via: <https://itsfoss.com/ssh-into-raspberry/> 作者:[Chinmay](https://itsfoss.com/author/chinmay/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[tomjlw](https://github.com/tomjlw) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
xsos:一个在 Linux 上阅读 SOSReport 的工具
Magesh Maruthamuthu
https://www.2daygeek.com/xsos-a-tool-to-read-sosreport-in-linux/
xsos 是一个帮助用户轻松读取 Linux 系统上的 sosreport 的工具。另一方面,我们可以说它是 sosreport 考官。
/data/attachment/album/201905/23/133305accwpsvhk1epsisc.jpg.thumb.jpg
/data/attachment/album/201905/23/133305accwpsvhk1epsisc.jpg
true
false
true
lujun9972
wxy
wxy
false
[ "SOSReport" ]
技术
{ "viewnum": 9451, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
xsos 是一个帮助用户轻松读取 Linux 系统上的 sosreport 的工具。另一方面,我们可以说它是 sosreport 考官。
2019-05-23T13:33:00
2019-05-23T13:33:00
10,889
/article-10889-1.html
![](/data/attachment/album/201905/23/133305accwpsvhk1epsisc.jpg) 我们都已经知道 [SOSReport](https://www.2daygeek.com/how-to-create-collect-sosreport-in-linux/)。它用来收集可用于诊断的系统信息。Redhat 的支持服务建议我们在提交案例时提供 SOSReport 来分析当前的系统状态。 它会收集全部类型的报告,以帮助用户找出问题的根本原因。我们可以轻松地提取和阅读 SOSReport,但它很难阅读。因为它的每个部分都是一个单独的文件。 那么,在 Linux 中使用语法高亮显示阅读所有这些内容的最佳方法是什么。是的,这可以通过 `xsos` 工具做到。 ### sosreport `sosreport` 命令是一个从运行中的系统(尤其是 RHEL 和 OEL 系统)收集大量配置细节、系统信息和诊断信息的工具。它可以帮助技术支持工程师在很多方面分析系统。 此报告包含有关系统的大量信息,例如引导信息、文件系统、内存、主机名、已安装的 RPM、系统 IP、网络详细信息、操作系统版本、已安装的内核、已加载的内核模块、打开的文件列表、PCI 设备列表、挂载点及其细节、运行中的进程信息、进程树输出、系统路由、位于 `/etc` 文件夹中的所有配置文件,以及位于 `/var` 文件夹中的所有日志文件。 这将需要一段时间来生成报告,这取决于你的系统安装和配置。 完成后,`sosreport` 将在 `/tmp` 目录下生成一个压缩的归档文件。 ### xsos [xsos](https://github.com/ryran/xsos) 是一个帮助用户轻松读取 Linux 系统上的 `sosreport` 的工具。另一方面,我们可以说它是 `sosreport` 考官。 它可以立即从 `sosreport` 或正在运行的系统中汇总系统信息。 `xsos` 将尝试简化、解析、计算并格式化来自数十个文件(和命令)的数据,以便为你提供有关系统的详细概述。 你可以通过运行以下命令立即汇总系统信息。 ``` # curl -Lo ./xsos bit.ly/xsos-direct; chmod +x ./xsos; ./xsos -ya ``` ![](/data/attachment/album/201905/23/133450t75854qzdunpyrrc.jpg) ### 如何在 Linux 上安装 xsos 我们可以使用以下两种方法轻松安装 `xsos`。 如果你正在寻找最新的前沿版本。使用以下步骤: ``` # curl -Lo /usr/local/bin/xsos bit.ly/xsos-direct # chmod +x /usr/local/bin/xsos ``` 下面是安装 `xsos` 的推荐方法。它将从 rpm 文件安装 `xsos`。 ``` # yum install http://people.redhat.com/rsawhill/rpms/latest-rsawaroha-release.rpm # yum install xsos ``` ### 如何在 Linux 上使用 xsos 一旦通过上述方法之一安装了 xsos。只需运行 `xsos` 命令,不带任何选项,它们会显示有关系统的基本信息。 ``` # xsos OS Hostname: CentOS7.2daygeek.com Distro: [redhat-release] CentOS Linux release 7.6.1810 (Core) [centos-release] CentOS Linux release 7.6.1810 (Core) [os-release] CentOS Linux 7 (Core) 7 (Core) RHN: (missing) RHSM: (missing) YUM: 2 enabled plugins: fastestmirror, langpacks Runlevel: N 5 (default graphical) SELinux: enforcing (default enforcing) Arch: mach=x86_64 cpu=x86_64 platform=x86_64 Kernel: Booted kernel: 3.10.0-957.el7.x86_64 GRUB default: 3.10.0-957.el7.x86_64 Build version: Linux version 3.10.0-957.el7.x86_64 ([email protected]) (gcc version 4.8.5 20150623 (Red Hat 4.8.5-36) (GCC) ) #1 SMP Thu Nov 8 23:39:32 UTC 2018 Booted kernel cmdline: root=/dev/mapper/centos-root ro crashkernel=auto rd.lvm.lv=centos/root rd.lvm.lv=centos/swap rhgb quiet LANG=en_US.UTF-8 GRUB default kernel cmdline: root=/dev/mapper/centos-root ro crashkernel=auto rd.lvm.lv=centos/root rd.lvm.lv=centos/swap rhgb quiet LANG=en_US.UTF-8 Taint-check: 0 (kernel untainted) - - - - - - - - - - - - - - - - - - - Sys time: Sun May 12 10:05:21 CDT 2019 Boot time: Sun May 12 09:50:20 CDT 2019 (epoch: 1557672620) Time Zone: America/Chicago Uptime: 15 min, 1 user LoadAvg: [1 CPU] 0.00 (0%), 0.04 (4%), 0.09 (9%) /proc/stat: procs_running: 2 procs_blocked: 0 processes [Since boot]: 6423 cpu [Utilization since boot]: us 1%, ni 0%, sys 1%, idle 99%, iowait 0%, irq 0%, sftirq 0%, steal 0% ``` ### 如何使用 xsos 命令在 Linux 中查看生成的 SOSReport 输出? 我们需要份 SOSReport 以使用 `xsos` 命令进一步阅读。 是的,我已经生成了一个 SOSReport,文件如下。 ``` # ls -lls -lh /var/tmp/sosreport-CentOS7-01-1005-2019-05-12-pomeqsa.tar.xz 9.8M -rw-------. 1 root root 9.8M May 12 10:13 /var/tmp/sosreport-CentOS7-01-1005-2019-05-12-pomeqsa.tar.xz ``` 运行如下命令解开它。 ``` # tar xf sosreport-CentOS7-01-1005-2019-05-12-pomeqsa.tar.xz ``` 要查看全部信息,带上 `-a` 或 `--all` 开关运行 `xsos`: ``` # xsos --all /var/tmp/sosreport-CentOS7-01-1005-2019-05-12-pomeqsa ``` 要查看 BIOS 信息,带上 `-b` 或 `--bios` 开关运行 `xsos`。 ``` # xsos --bios /var/tmp/sosreport-CentOS7-01-1005-2019-05-12-pomeqsa DMIDECODE BIOS: Vend: innotek GmbH Vers: VirtualBox Date: 12/01/2006 BIOS Rev: FW Rev: System: Mfr: innotek GmbH Prod: VirtualBox Vers: 1.2 Ser: 0 UUID: 002f47b8-2af2-48f5-be1d-67b67e03514c CPU: 0 of 0 CPU sockets populated, 0 cores/0 threads per CPU 0 total cores, 0 total threads Mfr: Fam: Freq: Vers: Memory: Total: 0 MiB (0 GiB) DIMMs: 0 of 0 populated MaxCapacity: 0 MiB (0 GiB / 0.00 TiB) ``` 要查看系统基本信息,如主机名、发行版、SELinux、内核信息、正常运行时间等,请使用 `-o` 或 `--os` 开关运行 `xsos`。 ``` # xsos --os /var/tmp/sosreport-CentOS7-01-1005-2019-05-12-pomeqsa OS Hostname: CentOS7.2daygeek.com Distro: [redhat-release] CentOS Linux release 7.6.1810 (Core) [centos-release] CentOS Linux release 7.6.1810 (Core) [os-release] CentOS Linux 7 (Core) 7 (Core) RHN: (missing) RHSM: (missing) YUM: 2 enabled plugins: fastestmirror, langpacks SELinux: enforcing (default enforcing) Arch: mach=x86_64 cpu=x86_64 platform=x86_64 Kernel: Booted kernel: 3.10.0-957.el7.x86_64 GRUB default: 3.10.0-957.el7.x86_64 Build version: Linux version 3.10.0-957.el7.x86_64 ([email protected]) (gcc version 4.8.5 20150623 (Red Hat 4.8.5-36) (GCC) ) #1 SMP Thu Nov 8 23:39:32 UTC 2018 Booted kernel cmdline: root=/dev/mapper/centos-root ro crashkernel=auto rd.lvm.lv=centos/root rd.lvm.lv=centos/swap rhgb quiet LANG=en_US.UTF-8 GRUB default kernel cmdline: root=/dev/mapper/centos-root ro crashkernel=auto rd.lvm.lv=centos/root rd.lvm.lv=centos/swap rhgb quiet LANG=en_US.UTF-8 Taint-check: 536870912 (see https://access.redhat.com/solutions/40594) 29 TECH_PREVIEW: Technology Preview code is loaded - - - - - - - - - - - - - - - - - - - Sys time: Sun May 12 10:12:22 CDT 2019 Boot time: Sun May 12 09:50:20 CDT 2019 (epoch: 1557672620) Time Zone: America/Chicago Uptime: 22 min, 1 user LoadAvg: [1 CPU] 1.19 (119%), 0.27 (27%), 0.14 (14%) /proc/stat: procs_running: 8 procs_blocked: 2 processes [Since boot]: 9005 cpu [Utilization since boot]: us 1%, ni 0%, sys 1%, idle 99%, iowait 0%, irq 0%, sftirq 0%, steal 0% ``` 要查看 kdump 配置,请使用 `-k` 或 `--kdump` 开关运行 `xsos`。 ``` # xsos --kdump /var/tmp/sosreport-CentOS7-01-1005-2019-05-12-pomeqsa KDUMP CONFIG kexec-tools rpm version: kexec-tools-2.0.15-21.el7.x86_64 Service enablement: UNIT STATE kdump.service enabled kdump initrd/initramfs: 13585734 Feb 19 05:51 initramfs-3.10.0-957.el7.x86_64kdump.img Memory reservation config: /proc/cmdline { crashkernel=auto } GRUB default { crashkernel=auto } Actual memory reservation per /proc/iomem: 2a000000-340fffff : Crash kernel kdump.conf: path /var/crash core_collector makedumpfile -l --message-level 1 -d 31 kdump.conf "path" available space: System MemTotal (uncompressed core size) { 1.80 GiB } Available free space on target path's fs { 22.68 GiB } (fs=/) Panic sysctls: kernel.sysrq [bitmask] = "16" (see proc man page) kernel.panic [secs] = 0 (no autoreboot on panic) kernel.hung_task_panic = 0 kernel.panic_on_oops = 1 kernel.panic_on_io_nmi = 0 kernel.panic_on_unrecovered_nmi = 0 kernel.panic_on_stackoverflow = 0 kernel.softlockup_panic = 0 kernel.unknown_nmi_panic = 0 kernel.nmi_watchdog = 1 vm.panic_on_oom [0-2] = 0 (no panic) ``` 要查看有关 CPU 的信息,请使用 `-c` 或 `--cpu` 开关运行 `xsos`。 ``` # xsos --cpu /var/tmp/sosreport-CentOS7-01-1005-2019-05-12-pomeqsa CPU 1 logical processors 1 Intel Core i7-6700HQ CPU @ 2.60GHz (flags: aes,constant_tsc,ht,lm,nx,pae,rdrand) ``` 要查看内存利用情况,请使用 `-m` 或 `--mem` 开关运行 `xsos`。 ``` # xsos --mem /var/tmp/sosreport-CentOS7-01-1005-2019-05-12-pomeqsa MEMORY Stats graphed as percent of MemTotal: MemUsed ▊▊▊▊▊▊▊▊▊▊▊▊▊▊▊▊▊▊▊▊▊▊▊▊▊▊▊▊▊..................... 58.8% Buffers .................................................. 0.6% Cached ▊▊▊▊▊▊▊▊▊▊▊▊▊▊▊................................... 29.9% HugePages .................................................. 0.0% Dirty .................................................. 0.7% RAM: 1.8 GiB total ram 1.1 GiB (59%) used 0.5 GiB (28%) used excluding Buffers/Cached 0.01 GiB (1%) dirty HugePages: No ram pre-allocated to HugePages LowMem/Slab/PageTables/Shmem: 0.09 GiB (5%) of total ram used for Slab 0.02 GiB (1%) of total ram used for PageTables 0.01 GiB (1%) of total ram used for Shmem Swap: 0 GiB (0%) used of 2 GiB total ``` 要查看添加的磁盘信息,请使用 `-d` 和 `-disks` 开关运行 `xsos`。 ``` # xsos --disks /var/tmp/sosreport-CentOS7-01-1005-2019-05-12-pomeqsa STORAGE Whole Disks from /proc/partitions: 2 disks, totaling 40 GiB (0.04 TiB) - - - - - - - - - - - - - - - - - - - - - Disk Size in GiB ---- ----------- sda 30 sdb 10 ``` 要查看网络接口配置,请使用 `-e` 或 `--ethtool` 开关运行 `xsos`。 ``` # xsos --ethtool /var/tmp/sosreport-CentOS7-01-1005-2019-05-12-pomeqsa ETHTOOL Interface Status: enp0s10 0000:00:0a.0 link=up 1000Mb/s full (autoneg=Y) rx ring 256/4096 drv e1000 v7.3.21-k8-NAPI / fw UNKNOWN enp0s9 0000:00:09.0 link=up 1000Mb/s full (autoneg=Y) rx ring 256/4096 drv e1000 v7.3.21-k8-NAPI / fw UNKNOWN virbr0 N/A link=DOWN rx ring UNKNOWN drv bridge v2.3 / fw N/A virbr0-nic tap link=DOWN rx ring UNKNOWN drv tun v1.6 / fw UNKNOWN ``` 要查看有关 IP 地址的信息,请使用 `-i` 或 `--ip` 开关运行 `xsos`。 ``` # xsos --ip /var/tmp/sosreport-CentOS7-01-1005-2019-05-12-pomeqsa IP4 Interface Master IF MAC Address MTU State IPv4 Address ========= ========= ================= ====== ===== ================== lo - - 65536 up 127.0.0.1/8 enp0s9 - 08:00:27:0b:bc:e9 1500 up 192.168.1.8/24 enp0s10 - 08:00:27:b2:08:91 1500 up 192.168.1.9/24 virbr0 - 52:54:00:ae:01:94 1500 up 192.168.122.1/24 virbr0-nic virbr0 52:54:00:ae:01:94 1500 DOWN - IP6 Interface Master IF MAC Address MTU State IPv6 Address Scope ========= ========= ================= ====== ===== =========================================== ===== lo - - 65536 up ::1/128 host enp0s9 - 08:00:27:0b:bc:e9 1500 up fe80::945b:8333:f4bc:9723/64 link enp0s10 - 08:00:27:b2:08:91 1500 up fe80::7ed4:1fab:23c3:3790/64 link virbr0 - 52:54:00:ae:01:94 1500 up - - virbr0-nic virbr0 52:54:00:ae:01:94 1500 DOWN - - ``` 要通过 `ps` 查看正在运行的进程,请使用 `-p` 或 `--ps` 开关运行 `xsos`。 ``` # xsos --ps /var/tmp/sosreport-CentOS7-01-1005-2019-05-12-pomeqsa PS CHECK Total number of threads/processes: 501 / 171 Top users of CPU & MEM: USER %CPU %MEM RSS root 20.6% 14.1% 0.30 GiB gdm 0.3% 16.8% 0.33 GiB postfix 0.0% 0.6% 0.01 GiB polkitd 0.0% 0.6% 0.01 GiB daygeek 0.0% 0.2% 0.00 GiB colord 0.0% 0.4% 0.01 GiB Uninteruptible sleep threads/processes (0/0): [None] Defunct zombie threads/processes (0/0): [None] Top CPU-using processes: USER PID %CPU %MEM VSZ-MiB RSS-MiB TTY STAT START TIME COMMAND root 6542 15.6 4.2 875 78 pts/0 Sl+ 10:11 0:07 /usr/bin/python /sbin/sosreport root 7582 3.0 0.1 10 2 pts/0 S 10:12 0:00 /bin/bash /usr/sbin/dracut --print-cmdline root 7969 0.7 0.1 95 4 ? Ss 10:12 0:00 /usr/sbin/certmonger -S -p root 7889 0.4 0.2 24 4 ? Ss 10:12 0:00 /usr/lib/systemd/systemd-hostnamed gdm 3866 0.3 7.1 2856 131 ? Sl 09:50 0:04 /usr/bin/gnome-shell root 8553 0.2 0.1 47 3 ? S 10:12 0:00 /usr/lib/systemd/systemd-udevd root 6971 0.2 0.4 342 9 ? Sl 10:12 0:00 /usr/sbin/abrt-dbus -t133 root 3200 0.2 0.9 982 18 ? Ssl 09:50 0:02 /usr/sbin/libvirtd root 2855 0.1 0.1 88 3 ? Ss 09:50 0:01 /sbin/rngd -f rtkit 2826 0.0 0.0 194 2 ? SNsl 09:50 0:00 /usr/libexec/rtkit-daemon Top MEM-using processes: USER PID %CPU %MEM VSZ-MiB RSS-MiB TTY STAT START TIME COMMAND gdm 3866 0.3 7.1 2856 131 ? Sl 09:50 0:04 /usr/bin/gnome-shell root 6542 15.6 4.2 875 78 pts/0 Sl+ 10:11 0:07 /usr/bin/python /sbin/sosreport root 3264 0.0 1.2 271 23 tty1 Ssl+ 09:50 0:00 /usr/bin/X :0 -background root 3200 0.2 0.9 982 18 ? Ssl 09:50 0:02 /usr/sbin/libvirtd root 3189 0.0 0.9 560 17 ? Ssl 09:50 0:00 /usr/bin/python2 -Es /usr/sbin/tuned gdm 4072 0.0 0.9 988 17 ? Sl 09:50 0:00 /usr/libexec/gsd-media-keys gdm 4076 0.0 0.8 625 16 ? Sl 09:50 0:00 /usr/libexec/gsd-power gdm 4056 0.0 0.8 697 16 ? Sl 09:50 0:00 /usr/libexec/gsd-color root 2853 0.0 0.7 622 14 ? Ssl 09:50 0:00 /usr/sbin/NetworkManager --no-daemon gdm 4110 0.0 0.7 544 14 ? Sl 09:50 0:00 /usr/libexec/gsd-wacom Top thread-spawning processes: # USER PID %CPU %MEM VSZ-MiB RSS-MiB TTY STAT START TIME COMMAND 17 root 3200 0.2 0.9 982 18 ? - 09:50 0:02 /usr/sbin/libvirtd 12 root 6542 16.1 4.5 876 83 pts/0 - 10:11 0:07 /usr/bin/python /sbin/sosreport 10 gdm 3866 0.3 7.1 2856 131 ? - 09:50 0:04 /usr/bin/gnome-shell 7 polkitd 2864 0.0 0.6 602 13 ? - 09:50 0:01 /usr/lib/polkit-1/polkitd --no-debug 6 root 2865 0.0 0.0 203 1 ? - 09:50 0:00 /usr/sbin/gssproxy -D 5 root 3189 0.0 0.9 560 17 ? - 09:50 0:00 /usr/bin/python2 -Es /usr/sbin/tuned 5 root 2823 0.0 0.3 443 6 ? - 09:50 0:00 /usr/libexec/udisks2/udisksd 5 gdm 4102 0.0 0.2 461 5 ? - 09:50 0:00 /usr/libexec/gsd-smartcard 4 root 3215 0.0 0.2 470 4 ? - 09:50 0:00 /usr/sbin/gdm 4 gdm 4106 0.0 0.2 444 5 ? - 09:50 0:00 /usr/libexec/gsd-sound ``` --- via: <https://www.2daygeek.com/xsos-a-tool-to-read-sosreport-in-linux/> 作者:[Magesh Maruthamuthu](https://www.2daygeek.com/author/magesh/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[wxy](https://github.com/wxy) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
使用深度学习检测疟疾
Dipanjan (dj) Sarkar
https://opensource.com/article/19/4/detecting-malaria-deep-learning
人工智能结合开源硬件工具能够提升严重传染病疟疾的诊断。
/data/attachment/album/201905/24/020031gvej75e5rmu5qkz5.png.thumb.jpg
/data/attachment/album/201905/24/020031gvej75e5rmu5qkz5.png
true
false
true
lujun9972
warmfrog
wxy
false
[ "AI", "深度学习", "疟疾" ]
软件开发
{ "viewnum": 5835, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
人工智能结合开源硬件工具能够提升严重传染病疟疾的诊断。
2019-05-24T02:00:28
2019-05-24T02:00:28
10,891
/article-10891-1.html
> > 人工智能结合开源硬件工具能够提升严重传染病疟疾的诊断。 > > > ![](/data/attachment/album/201905/24/020031gvej75e5rmu5qkz5.png) 人工智能(AI)和开源工具、技术和框架是促进社会进步的强有力的结合。“健康就是财富”可能有点陈词滥调,但它却是非常准确的!在本篇文章,我们将测试 AI 是如何与低成本、有效、精确的开源深度学习方法结合起来一起用来检测致死的传染病疟疾。 我既不是一个医生,也不是一个医疗保健研究者,我也绝不像他们那样合格,我只是对将 AI 应用到医疗保健研究感兴趣。在这片文章中我的想法是展示 AI 和开源解决方案如何帮助疟疾检测和减少人工劳动的方法。 ![Python and TensorFlow](/data/attachment/album/201905/24/020032sbtcaoncgn495557.png "Python and TensorFlow") *Python 和 TensorFlow: 一个构建开源深度学习方法的很棒的结合* 感谢 Python 的强大和像 TensorFlow 这样的深度学习框架,我们能够构建健壮的、大规模的、有效的深度学习方法。因为这些工具是自由和开源的,我们能够构建非常经济且易于被任何人采纳和使用的解决方案。让我们开始吧! ### 项目动机 疟疾是由*疟原虫*造成的致死的、有传染性的、蚊子传播的疾病,主要通过受感染的雌性按蚊叮咬传播。共有五种寄生虫能够引起疟疾,但是大多数病例是这两种类型造成的:恶性疟原虫和间日疟原虫。 ![疟疾热图](/data/attachment/album/201905/24/020032i8it8lf4q2at5wzn.png "Malaria heat map") 这个地图显示了疟疾在全球传播分布形势,尤其在热带地区,但疾病的性质和致命性是该项目的主要动机。 如果一只受感染雌性蚊子叮咬了你,蚊子携带的寄生虫进入你的血液,并且开始破坏携带氧气的红细胞(RBC)。通常,疟疾的最初症状类似于流感病毒,在蚊子叮咬后,他们通常在几天或几周内发作。然而,这些致死的寄生虫可以在你的身体里生存长达一年并且不会造成任何症状,延迟治疗可能造成并发症甚至死亡。因此,早期的检查能够挽救生命。 世界健康组织(WHO)的[疟疾实情](https://www.who.int/features/factfiles/malaria/en/)表明,世界近乎一半的人口面临疟疾的风险,有超过 2 亿的疟疾病例,每年由于疟疾造成的死亡将近 40 万。这是使疟疾检测和诊断快速、简单和有效的一个动机。 ### 检测疟疾的方法 有几种方法能够用来检测和诊断疟疾。该文中的项目就是基于 Rajaraman, et al. 的论文:“[预先训练的卷积神经网络作为特征提取器,用于改善薄血涂片图像中的疟疾寄生虫检测](https://peerj.com/articles/4568/)”介绍的一些方法,包含聚合酶链反应(PCR)和快速诊断测试(RDT)。这两种测试通常用于无法提供高质量显微镜服务的地方。 标准的疟疾诊断通常是基于血液涂片工作流程的,根据 Carlos Ariza 的文章“[Malaria Hero:一个更快诊断疟原虫的网络应用](https://blog.insightdatascience.com/https-blog-insightdatascience-com-malaria-hero-a47d3d5fc4bb)”,我从中了解到 Adrian Rosebrock 的“[使用 Keras 的深度学习和医学图像分析](https://www.pyimagesearch.com/2018/12/03/deep-learning-and-medical-image-analysis-with-keras/)”。我感激这些优秀的资源的作者,让我在疟原虫预防、诊断和治疗方面有了更多的想法。 ![疟原虫检测的血涂片工作流程](/data/attachment/album/201905/24/020033dmm6sm1pp6wskwwm.png "Blood smear workflow for Malaria detection") *一个疟原虫检测的血涂片工作流程* 根据 WHO 方案,诊断通常包括对放大 100 倍的血涂片的集中检测。受过训练的人们手工计算在 5000 个细胞中有多少红细胞中包含疟原虫。正如上述解释中引用的 Rajaraman, et al. 的论文: > > 厚血涂片有助于检测寄生虫的存在,而薄血涂片有助于识别引起感染的寄生虫种类(疾病控制和预防中心, 2012)。诊断准确性在很大程度上取决于诊断人的专业知识,并且可能受到观察者间差异和疾病流行/资源受限区域大规模诊断所造成的不利影响(Mitiku, Mengistu 和 Gelaw, 2003)。可替代的技术是使用聚合酶链反应(PCR)和快速诊断测试(RDT);然而,PCR 分析受限于它的性能(Hommelsheim, et al., 2014),RDT 在疾病流行的地区成本效益低(Hawkes, Katsuva 和 Masumbuko, 2009)。 > > > 因此,疟疾检测可能受益于使用机器学习的自动化。 ### 疟疾检测的深度学习 人工诊断血涂片是一个繁重的手工过程,需要专业知识来分类和计数被寄生虫感染的和未感染的细胞。这个过程可能不能很好的规模化,尤其在那些专业人士不足的地区。在利用最先进的图像处理和分析技术提取人工选取特征和构建基于机器学习的分类模型方面取得了一些进展。然而,这些模型不能大规模推广,因为没有更多的数据用来训练,并且人工选取特征需要花费很长时间。 深度学习模型,或者更具体地讲,卷积神经网络(CNN),已经被证明在各种计算机视觉任务中非常有效。(如果你想更多的了解关于 CNN 的背景知识,我推荐你阅读[视觉识别的 CS2331n 卷积神经网络](http://cs231n.github.io/convolutional-networks/)。)简单地讲,CNN 模型的关键层包含卷积和池化层,正如下图所示。 ![A typical CNN architecture](/data/attachment/album/201905/24/020034xybcrznfbfrnlnbk.png "A typical CNN architecture") *一个典型的 CNN 架构* 卷积层从数据中学习空间层级模式,它是平移不变的,因此它们能够学习图像的不同方面。例如,第一个卷积层将学习小的和局部图案,例如边缘和角落,第二个卷积层将基于第一层的特征学习更大的图案,等等。这允许 CNN 自动化提取特征并且学习对于新数据点通用的有效的特征。池化层有助于下采样和减少尺寸。 因此,CNN 有助于自动化和规模化的特征工程。同样,在模型末尾加上密集层允许我们执行像图像分类这样的任务。使用像 CNN 这样的深度学习模型自动的疟疾检测可能非常有效、便宜和具有规模性,尤其是迁移学习和预训练模型效果非常好,甚至在少量数据的约束下。 Rajaraman, et al. 的论文在一个数据集上利用六个预训练模型在检测疟疾对比无感染样本获取到令人吃惊的 95.9% 的准确率。我们的重点是从头开始尝试一些简单的 CNN 模型和用一个预训练的训练模型使用迁移学习来查看我们能够从相同的数据集中得到什么。我们将使用开源工具和框架,包括 Python 和 TensorFlow,来构建我们的模型。 ### 数据集 我们分析的数据来自 Lister Hill 国家生物医学交流中心(LHNCBC)的研究人员,该中心是国家医学图书馆(NLM)的一部分,他们细心收集和标记了公开可用的健康和受感染的血涂片图像的[数据集](https://ceb.nlm.nih.gov/repositories/malaria-datasets/)。这些研究者已经开发了一个运行在 Android 智能手机的[疟疾检测手机应用](https://www.ncbi.nlm.nih.gov/pubmed/29360430),连接到一个传统的光学显微镜。它们使用吉姆萨染液将 150 个受恶性疟原虫感染的和 50 个健康病人的薄血涂片染色,这些薄血涂片是在孟加拉的吉大港医学院附属医院收集和照相的。使用智能手机的内置相机获取每个显微镜视窗内的图像。这些图片由在泰国曼谷的马希多-牛津热带医学研究所的一个专家使用幻灯片阅读器标记的。 让我们简要地查看一下数据集的结构。首先,我将安装一些基础的依赖(基于使用的操作系统)。 ![Installing dependencies](/data/attachment/album/201905/24/020034txfwzh2g7943l999.png "Installing dependencies") 我使用的是云上的带有一个 GPU 的基于 Debian 的操作系统,这样我能更快的运行我的模型。为了查看目录结构,我们必须使用 `sudo apt install tree` 安装 `tree` 及其依赖(如果我们没有安装的话)。 ![Installing the tree dependency](/data/attachment/album/201905/24/020035atuk6kb6z75xbvkk.png "Installing the tree dependency") 我们有两个文件夹包含血细胞的图像,包括受感染的和健康的。我们通过输入可以获取关于图像总数更多的细节: ``` import os import glob base_dir = os.path.join('./cell_images') infected_dir = os.path.join(base_dir,'Parasitized') healthy_dir = os.path.join(base_dir,'Uninfected') infected_files = glob.glob(infected_dir+'/*.png') healthy_files = glob.glob(healthy_dir+'/*.png') len(infected_files), len(healthy_files) # Output (13779, 13779) ``` 看起来我们有一个平衡的数据集,包含 13,779 张疟疾的和 13,779 张非疟疾的(健康的)血细胞图像。让我们根据这些构建数据帧,我们将用这些数据帧来构建我们的数据集。 ``` import numpy as np import pandas as pd np.random.seed(42) files_df = pd.DataFrame({ 'filename': infected_files + healthy_files, 'label': ['malaria'] * len(infected_files) + ['healthy'] * len(healthy_files) }).sample(frac=1, random_state=42).reset_index(drop=True) files_df.head() ``` ![Datasets](/data/attachment/album/201905/24/020035m15h5kk31qq3zq3k.png "Datasets") ### 构建和了解图像数据集 为了构建深度学习模型,我们需要训练数据,但是我们还需要使用不可见的数据测试模型的性能。相应的,我们将使用 60:10:30 的比例来划分用于训练、验证和测试的数据集。我们将在训练期间应用训练和验证数据集,并用测试数据集来检查模型的性能。 ``` from sklearn.model_selection import train_test_split from collections import Counter train_files, test_files, train_labels, test_labels = train_test_split(files_df['filename'].values, files_df['label'].values, test_size=0.3, random_state=42) train_files, val_files, train_labels, val_labels = train_test_split(train_files, train_labels, test_size=0.1, random_state=42) print(train_files.shape, val_files.shape, test_files.shape) print('Train:', Counter(train_labels), '\nVal:', Counter(val_labels), '\nTest:', Counter(test_labels)) # Output (17361,) (1929,) (8268,) Train: Counter({'healthy': 8734, 'malaria': 8627}) Val: Counter({'healthy': 970, 'malaria': 959}) Test: Counter({'malaria': 4193, 'healthy': 4075}) ``` 这些图片尺寸并不相同,因为血涂片和细胞图像是基于人、测试方法、图片方向不同而不同的。让我们总结我们的训练数据集的统计信息来决定最佳的图像尺寸(牢记,我们根本不会碰测试数据集)。 ``` import cv2 from concurrent import futures import threading def get_img_shape_parallel(idx, img, total_imgs): if idx % 5000 == 0 or idx == (total_imgs - 1): print('{}: working on img num: {}'.format(threading.current_thread().name, idx)) return cv2.imread(img).shape ex = futures.ThreadPoolExecutor(max_workers=None) data_inp = [(idx, img, len(train_files)) for idx, img in enumerate(train_files)] print('Starting Img shape computation:') train_img_dims_map = ex.map(get_img_shape_parallel, [record[0] for record in data_inp], [record[1] for record in data_inp], [record[2] for record in data_inp]) train_img_dims = list(train_img_dims_map) print('Min Dimensions:', np.min(train_img_dims, axis=0)) print('Avg Dimensions:', np.mean(train_img_dims, axis=0)) print('Median Dimensions:', np.median(train_img_dims, axis=0)) print('Max Dimensions:', np.max(train_img_dims, axis=0)) # Output Starting Img shape computation: ThreadPoolExecutor-0_0: working on img num: 0 ThreadPoolExecutor-0_17: working on img num: 5000 ThreadPoolExecutor-0_15: working on img num: 10000 ThreadPoolExecutor-0_1: working on img num: 15000 ThreadPoolExecutor-0_7: working on img num: 17360 Min Dimensions: [46 46 3] Avg Dimensions: [132.77311215 132.45757733 3.] Median Dimensions: [130. 130. 3.] Max Dimensions: [385 394 3] ``` 我们应用并行处理来加速图像读取,并且基于汇总统计结果,我们将每幅图片的尺寸重新调整到 125x125 像素。让我们载入我们所有的图像并重新调整它们为这些固定尺寸。 ``` IMG_DIMS = (125, 125) def get_img_data_parallel(idx, img, total_imgs): if idx % 5000 == 0 or idx == (total_imgs - 1): print('{}: working on img num: {}'.format(threading.current_thread().name, idx)) img = cv2.imread(img) img = cv2.resize(img, dsize=IMG_DIMS, interpolation=cv2.INTER_CUBIC) img = np.array(img, dtype=np.float32) return img ex = futures.ThreadPoolExecutor(max_workers=None) train_data_inp = [(idx, img, len(train_files)) for idx, img in enumerate(train_files)] val_data_inp = [(idx, img, len(val_files)) for idx, img in enumerate(val_files)] test_data_inp = [(idx, img, len(test_files)) for idx, img in enumerate(test_files)] print('Loading Train Images:') train_data_map = ex.map(get_img_data_parallel, [record[0] for record in train_data_inp], [record[1] for record in train_data_inp], [record[2] for record in train_data_inp]) train_data = np.array(list(train_data_map)) print('\nLoading Validation Images:') val_data_map = ex.map(get_img_data_parallel, [record[0] for record in val_data_inp], [record[1] for record in val_data_inp], [record[2] for record in val_data_inp]) val_data = np.array(list(val_data_map)) print('\nLoading Test Images:') test_data_map = ex.map(get_img_data_parallel, [record[0] for record in test_data_inp], [record[1] for record in test_data_inp], [record[2] for record in test_data_inp]) test_data = np.array(list(test_data_map)) train_data.shape, val_data.shape, test_data.shape # Output Loading Train Images: ThreadPoolExecutor-1_0: working on img num: 0 ThreadPoolExecutor-1_12: working on img num: 5000 ThreadPoolExecutor-1_6: working on img num: 10000 ThreadPoolExecutor-1_10: working on img num: 15000 ThreadPoolExecutor-1_3: working on img num: 17360 Loading Validation Images: ThreadPoolExecutor-1_13: working on img num: 0 ThreadPoolExecutor-1_18: working on img num: 1928 Loading Test Images: ThreadPoolExecutor-1_5: working on img num: 0 ThreadPoolExecutor-1_19: working on img num: 5000 ThreadPoolExecutor-1_8: working on img num: 8267 ((17361, 125, 125, 3), (1929, 125, 125, 3), (8268, 125, 125, 3)) ``` 我们再次应用并行处理来加速有关图像载入和重新调整大小的计算。最终,我们获得了所需尺寸的图片张量,正如前面的输出所示。我们现在查看一些血细胞图像样本,以对我们的数据有个印象。 ``` import matplotlib.pyplot as plt %matplotlib inline plt.figure(1 , figsize = (8 , 8)) n = 0 for i in range(16): n += 1 r = np.random.randint(0 , train_data.shape[0] , 1) plt.subplot(4 , 4 , n) plt.subplots_adjust(hspace = 0.5 , wspace = 0.5) plt.imshow(train_data[r[0]]/255.) plt.title('{}'.format(train_labels[r[0]])) plt.xticks([]) , plt.yticks([]) ``` ![Malaria cell samples](/data/attachment/album/201905/24/020035vmyssdy5d1p7nadz.png "Malaria cell samples") 基于这些样本图像,我们看到一些疟疾和健康细胞图像的细微不同。我们将使我们的深度学习模型试图在模型训练中学习这些模式。 开始我们的模型训练前,我们必须建立一些基础的配置设置。 ``` BATCH_SIZE = 64 NUM_CLASSES = 2 EPOCHS = 25 INPUT_SHAPE = (125, 125, 3) train_imgs_scaled = train_data / 255. val_imgs_scaled = val_data / 255. # encode text category labels from sklearn.preprocessing import LabelEncoder le = LabelEncoder() le.fit(train_labels) train_labels_enc = le.transform(train_labels) val_labels_enc = le.transform(val_labels) print(train_labels[:6], train_labels_enc[:6]) # Output ['malaria' 'malaria' 'malaria' 'healthy' 'healthy' 'malaria'] [1 1 1 0 0 1] ``` 我们修复我们的图像尺寸、批量大小,和纪元,并编码我们的分类的类标签。TensorFlow 2.0 于 2019 年三月发布,这个练习是尝试它的完美理由。 ``` import tensorflow as tf # Load the TensorBoard notebook extension (optional) %load_ext tensorboard.notebook tf.random.set_seed(42) tf.__version__ # Output '2.0.0-alpha0' ``` ### 深度学习训练 在模型训练阶段,我们将构建三个深度训练模型,使用我们的训练集训练,使用验证数据比较它们的性能。然后,我们保存这些模型并在之后的模型评估阶段使用它们。 #### 模型 1:从头开始的 CNN 我们的第一个疟疾检测模型将从头开始构建和训练一个基础的 CNN。首先,让我们定义我们的模型架构, ``` inp = tf.keras.layers.Input(shape=INPUT_SHAPE) conv1 = tf.keras.layers.Conv2D(32, kernel_size=(3, 3), activation='relu', padding='same')(inp) pool1 = tf.keras.layers.MaxPooling2D(pool_size=(2, 2))(conv1) conv2 = tf.keras.layers.Conv2D(64, kernel_size=(3, 3), activation='relu', padding='same')(pool1) pool2 = tf.keras.layers.MaxPooling2D(pool_size=(2, 2))(conv2) conv3 = tf.keras.layers.Conv2D(128, kernel_size=(3, 3), activation='relu', padding='same')(pool2) pool3 = tf.keras.layers.MaxPooling2D(pool_size=(2, 2))(conv3) flat = tf.keras.layers.Flatten()(pool3) hidden1 = tf.keras.layers.Dense(512, activation='relu')(flat) drop1 = tf.keras.layers.Dropout(rate=0.3)(hidden1) hidden2 = tf.keras.layers.Dense(512, activation='relu')(drop1) drop2 = tf.keras.layers.Dropout(rate=0.3)(hidden2) out = tf.keras.layers.Dense(1, activation='sigmoid')(drop2) model = tf.keras.Model(inputs=inp, outputs=out) model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy']) model.summary() # Output Model: "model" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= input_1 (InputLayer) [(None, 125, 125, 3)] 0 _________________________________________________________________ conv2d (Conv2D) (None, 125, 125, 32) 896 _________________________________________________________________ max_pooling2d (MaxPooling2D) (None, 62, 62, 32) 0 _________________________________________________________________ conv2d_1 (Conv2D) (None, 62, 62, 64) 18496 _________________________________________________________________ ... ... _________________________________________________________________ dense_1 (Dense) (None, 512) 262656 _________________________________________________________________ dropout_1 (Dropout) (None, 512) 0 _________________________________________________________________ dense_2 (Dense) (None, 1) 513 ================================================================= Total params: 15,102,529 Trainable params: 15,102,529 Non-trainable params: 0 _________________________________________________________________ ``` 基于这些代码的架构,我们的 CNN 模型有三个卷积和一个池化层,其后是两个致密层,以及用于正则化的失活。让我们训练我们的模型。 ``` import datetime logdir = os.path.join('/home/dipanzan_sarkar/projects/tensorboard_logs', datetime.datetime.now().strftime("%Y%m%d-%H%M%S")) tensorboard_callback = tf.keras.callbacks.TensorBoard(logdir, histogram_freq=1) reduce_lr = tf.keras.callbacks.ReduceLROnPlateau(monitor='val_loss', factor=0.5, patience=2, min_lr=0.000001) callbacks = [reduce_lr, tensorboard_callback] history = model.fit(x=train_imgs_scaled, y=train_labels_enc, batch_size=BATCH_SIZE, epochs=EPOCHS, validation_data=(val_imgs_scaled, val_labels_enc), callbacks=callbacks, verbose=1) # Output Train on 17361 samples, validate on 1929 samples Epoch 1/25 17361/17361 [====] - 32s 2ms/sample - loss: 0.4373 - accuracy: 0.7814 - val_loss: 0.1834 - val_accuracy: 0.9393 Epoch 2/25 17361/17361 [====] - 30s 2ms/sample - loss: 0.1725 - accuracy: 0.9434 - val_loss: 0.1567 - val_accuracy: 0.9513 ... ... Epoch 24/25 17361/17361 [====] - 30s 2ms/sample - loss: 0.0036 - accuracy: 0.9993 - val_loss: 0.3693 - val_accuracy: 0.9565 Epoch 25/25 17361/17361 [====] - 30s 2ms/sample - loss: 0.0034 - accuracy: 0.9994 - val_loss: 0.3699 - val_accuracy: 0.9559 ``` 我们获得了 95.6% 的验证精确率,这很好,尽管我们的模型看起来有些过拟合(通过查看我们的训练精确度,是 99.9%)。通过绘制训练和验证的精度和损失曲线,我们可以清楚地看到这一点。 ``` f, (ax1, ax2) = plt.subplots(1, 2, figsize=(12, 4)) t = f.suptitle('Basic CNN Performance', fontsize=12) f.subplots_adjust(top=0.85, wspace=0.3) max_epoch = len(history.history['accuracy'])+1 epoch_list = list(range(1,max_epoch)) ax1.plot(epoch_list, history.history['accuracy'], label='Train Accuracy') ax1.plot(epoch_list, history.history['val_accuracy'], label='Validation Accuracy') ax1.set_xticks(np.arange(1, max_epoch, 5)) ax1.set_ylabel('Accuracy Value') ax1.set_xlabel('Epoch') ax1.set_title('Accuracy') l1 = ax1.legend(loc="best") ax2.plot(epoch_list, history.history['loss'], label='Train Loss') ax2.plot(epoch_list, history.history['val_loss'], label='Validation Loss') ax2.set_xticks(np.arange(1, max_epoch, 5)) ax2.set_ylabel('Loss Value') ax2.set_xlabel('Epoch') ax2.set_title('Loss') l2 = ax2.legend(loc="best") ``` ![Learning curves for basic CNN](/data/attachment/album/201905/24/020036c2li4aa0drahlh44.png "Learning curves for basic CNN") *基础 CNN 学习曲线* 我们可以看在在第五个纪元,情况并没有改善很多。让我们保存这个模型用于将来的评估。 ``` model.save('basic_cnn.h5') ``` #### 深度迁移学习 就像人类有与生俱来在不同任务间传输知识的能力一样,迁移学习允许我们利用从以前任务学到的知识用到新的相关的任务,即使在机器学习或深度学习的情况下也是如此。如果想深入探究迁移学习,你应该看我的文章“[一个易于理解与现实应用一起学习深度学习中的迁移学习的指导实践](https://towardsdatascience.com/a-comprehensive-hands-on-guide-to-transfer-learning-with-real-world-applications-in-deep-learning-212bf3b2f27a)”和我的书《[Python 迁移学习实践](https://github.com/dipanjanS/hands-on-transfer-learning-with-python)》。 ![深度迁移学习的想法](/data/attachment/album/201905/24/020036i4u47qb3rx4444nq.png "Ideas for deep transfer learning") 在这篇实践中我们想要探索的想法是: > > 在我们的问题背景下,我们能够利用一个预训练深度学习模型(在大数据集上训练的,像 ImageNet)通过应用和迁移知识来解决疟疾检测的问题吗? > > > 我们将应用两个最流行的深度迁移学习策略。 * 预训练模型作为特征提取器 * 微调的预训练模型 我们将使用预训练的 VGG-19 深度训练模型(由剑桥大学的视觉几何组(VGG)开发)进行我们的实验。像 VGG-19 这样的预训练模型是在一个大的数据集([Imagenet](http://image-net.org/index))上使用了很多不同的图像分类训练的。因此,这个模型应该已经学习到了健壮的特征层级结构,相对于你的 CNN 模型学到的特征,是空间不变的、转动不变的、平移不变的。因此,这个模型,已经从百万幅图片中学习到了一个好的特征显示,对于像疟疾检测这样的计算机视觉问题,可以作为一个好的合适新图像的特征提取器。在我们的问题中发挥迁移学习的能力之前,让我们先讨论 VGG-19 模型。 ##### 理解 VGG-19 模型 VGG-19 模型是一个构建在 ImageNet 数据库之上的 19 层(卷积和全连接的)的深度学习网络,ImageNet 数据库为了图像识别和分类的目的而开发。该模型是由 Karen Simonyan 和 Andrew Zisserman 构建的,在他们的论文“[大规模图像识别的非常深的卷积网络](https://arxiv.org/pdf/1409.1556.pdf)”中进行了描述。VGG-19 的架构模型是: ![VGG-19 模型架构](/data/attachment/album/201905/24/020037i9eizi6dia3z2zdj.png "VGG-19 Model Architecture") 你可以看到我们总共有 16 个使用 3x3 卷积过滤器的卷积层,与最大的池化层来下采样,和由 4096 个单元组成的两个全连接的隐藏层,每个隐藏层之后跟随一个由 1000 个单元组成的致密层,每个单元代表 ImageNet 数据库中的一个分类。我们不需要最后三层,因为我们将使用我们自己的全连接致密层来预测疟疾。我们更关心前五个块,因此我们可以利用 VGG 模型作为一个有效的特征提取器。 我们将使用模型之一作为一个简单的特征提取器,通过冻结五个卷积块的方式来确保它们的位权在每个纪元后不会更新。对于最后一个模型,我们会对 VGG 模型进行微调,我们会解冻最后两个块(第 4 和第 5)因此当我们训练我们的模型时,它们的位权在每个时期(每批数据)被更新。 #### 模型 2:预训练的模型作为一个特征提取器 为了构建这个模型,我们将利用 TensorFlow 载入 VGG-19 模型并冻结卷积块,因此我们能够将它们用作特征提取器。我们在末尾插入我们自己的致密层来执行分类任务。 ``` vgg = tf.keras.applications.vgg19.VGG19(include_top=False, weights='imagenet', input_shape=INPUT_SHAPE) vgg.trainable = False # Freeze the layers for layer in vgg.layers: layer.trainable = False base_vgg = vgg base_out = base_vgg.output pool_out = tf.keras.layers.Flatten()(base_out) hidden1 = tf.keras.layers.Dense(512, activation='relu')(pool_out) drop1 = tf.keras.layers.Dropout(rate=0.3)(hidden1) hidden2 = tf.keras.layers.Dense(512, activation='relu')(drop1) drop2 = tf.keras.layers.Dropout(rate=0.3)(hidden2) out = tf.keras.layers.Dense(1, activation='sigmoid')(drop2) model = tf.keras.Model(inputs=base_vgg.input, outputs=out) model.compile(optimizer=tf.keras.optimizers.RMSprop(lr=1e-4), loss='binary_crossentropy', metrics=['accuracy']) model.summary() # Output Model: "model_1" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= input_2 (InputLayer) [(None, 125, 125, 3)] 0 _________________________________________________________________ block1_conv1 (Conv2D) (None, 125, 125, 64) 1792 _________________________________________________________________ block1_conv2 (Conv2D) (None, 125, 125, 64) 36928 _________________________________________________________________ ... ... _________________________________________________________________ block5_pool (MaxPooling2D) (None, 3, 3, 512) 0 _________________________________________________________________ flatten_1 (Flatten) (None, 4608) 0 _________________________________________________________________ dense_3 (Dense) (None, 512) 2359808 _________________________________________________________________ dropout_2 (Dropout) (None, 512) 0 _________________________________________________________________ dense_4 (Dense) (None, 512) 262656 _________________________________________________________________ dropout_3 (Dropout) (None, 512) 0 _________________________________________________________________ dense_5 (Dense) (None, 1) 513 ================================================================= Total params: 22,647,361 Trainable params: 2,622,977 Non-trainable params: 20,024,384 _________________________________________________________________ ``` 从整个输出可以明显看出,在我们的模型中我们有了很多层,我们将只利用 VGG-19 模型的冻结层作为特征提取器。你可以使用下列代码来验证我们的模型有多少层是实际可训练的,以及我们的网络中总共存在多少层。 ``` print("Total Layers:", len(model.layers)) print("Total trainable layers:", sum([1 for l in model.layers if l.trainable])) # Output Total Layers: 28 Total trainable layers: 6 ``` 我们将使用和我们之前的模型相似的配置和回调来训练我们的模型。参考[我的 GitHub 仓库](https://nbviewer.jupyter.org/github/dipanjanS/data_science_for_all/tree/master/os_malaria_detection/)以获取训练模型的完整代码。我们观察下列图表,以显示模型精确度和损失曲线。 ![Learning curves for frozen pre-trained CNN](/data/attachment/album/201905/24/020038jh4u1ux6lqlqblh3.png "Learning curves for frozen pre-trained CNN") *冻结的预训练的 CNN 的学习曲线* 这表明我们的模型没有像我们的基础 CNN 模型那样过拟合,但是性能有点不如我们的基础的 CNN 模型。让我们保存这个模型,以备将来的评估。 ``` model.save('vgg_frozen.h5') ``` #### 模型 3:使用图像增强来微调预训练的模型 在我们的最后一个模型中,我们将在预定义好的 VGG-19 模型的最后两个块中微调层的位权。我们同样引入了图像增强的概念。图像增强背后的想法和其名字一样。我们从训练数据集中载入现有图像,并且应用转换操作,例如旋转、裁剪、转换、放大缩小等等,来产生新的、改变过的版本。由于这些随机转换,我们每次获取到的图像不一样。我们将应用 tf.keras 中的一个名为 ImageDataGenerator 的优秀工具来帮助构建图像增强器。 ``` train_datagen = tf.keras.preprocessing.image.ImageDataGenerator(rescale=1./255, zoom_range=0.05, rotation_range=25, width_shift_range=0.05, height_shift_range=0.05, shear_range=0.05, horizontal_flip=True, fill_mode='nearest') val_datagen = tf.keras.preprocessing.image.ImageDataGenerator(rescale=1./255) # build image augmentation generators train_generator = train_datagen.flow(train_data, train_labels_enc, batch_size=BATCH_SIZE, shuffle=True) val_generator = val_datagen.flow(val_data, val_labels_enc, batch_size=BATCH_SIZE, shuffle=False) ``` 我们不会对我们的验证数据集应用任何转换(除非是调整大小,因为这是必须的),因为我们将使用它评估每个纪元的模型性能。对于在传输学习环境中的图像增强的详细解释,请随时查看我上面引用的[文章](https://towardsdatascience.com/a-comprehensive-hands-on-guide-to-transfer-learning-with-real-world-applications-in-deep-learning-212bf3b2f27a)。让我们从一批图像增强转换中查看一些样本结果。 ``` img_id = 0 sample_generator = train_datagen.flow(train_data[img_id:img_id+1], train_labels[img_id:img_id+1], batch_size=1) sample = [next(sample_generator) for i in range(0,5)] fig, ax = plt.subplots(1,5, figsize=(16, 6)) print('Labels:', [item[1][0] for item in sample]) l = [ax[i].imshow(sample[i][0][0]) for i in range(0,5)] ``` ![Sample augmented images](/data/attachment/album/201905/24/020039y00h0eg6wxfgx6gn.png "Sample augmented images") 你可以清晰的看到与之前的输出的我们图像的轻微变化。我们现在构建我们的学习模型,确保 VGG-19 模型的最后两块是可以训练的。 ``` vgg = tf.keras.applications.vgg19.VGG19(include_top=False, weights='imagenet', input_shape=INPUT_SHAPE) # Freeze the layers vgg.trainable = True set_trainable = False for layer in vgg.layers: if layer.name in ['block5_conv1', 'block4_conv1']: set_trainable = True if set_trainable: layer.trainable = True else: layer.trainable = False base_vgg = vgg base_out = base_vgg.output pool_out = tf.keras.layers.Flatten()(base_out) hidden1 = tf.keras.layers.Dense(512, activation='relu')(pool_out) drop1 = tf.keras.layers.Dropout(rate=0.3)(hidden1) hidden2 = tf.keras.layers.Dense(512, activation='relu')(drop1) drop2 = tf.keras.layers.Dropout(rate=0.3)(hidden2) out = tf.keras.layers.Dense(1, activation='sigmoid')(drop2) model = tf.keras.Model(inputs=base_vgg.input, outputs=out) model.compile(optimizer=tf.keras.optimizers.RMSprop(lr=1e-5), loss='binary_crossentropy', metrics=['accuracy']) print("Total Layers:", len(model.layers)) print("Total trainable layers:", sum([1 for l in model.layers if l.trainable])) # Output Total Layers: 28 Total trainable layers: 16 ``` 在我们的模型中我们降低了学习率,因为我们不想在微调的时候对预训练的层做大的位权更新。模型的训练过程可能有轻微的不同,因为我们使用了数据生成器,因此我们将应用 `fit_generator(...)` 函数。 ``` tensorboard_callback = tf.keras.callbacks.TensorBoard(logdir, histogram_freq=1) reduce_lr = tf.keras.callbacks.ReduceLROnPlateau(monitor='val_loss', factor=0.5, patience=2, min_lr=0.000001) callbacks = [reduce_lr, tensorboard_callback] train_steps_per_epoch = train_generator.n // train_generator.batch_size val_steps_per_epoch = val_generator.n // val_generator.batch_size history = model.fit_generator(train_generator, steps_per_epoch=train_steps_per_epoch, epochs=EPOCHS, validation_data=val_generator, validation_steps=val_steps_per_epoch, verbose=1) # Output Epoch 1/25 271/271 [====] - 133s 489ms/step - loss: 0.2267 - accuracy: 0.9117 - val_loss: 0.1414 - val_accuracy: 0.9531 Epoch 2/25 271/271 [====] - 129s 475ms/step - loss: 0.1399 - accuracy: 0.9552 - val_loss: 0.1292 - val_accuracy: 0.9589 ... ... Epoch 24/25 271/271 [====] - 128s 473ms/step - loss: 0.0815 - accuracy: 0.9727 - val_loss: 0.1466 - val_accuracy: 0.9682 Epoch 25/25 271/271 [====] - 128s 473ms/step - loss: 0.0792 - accuracy: 0.9729 - val_loss: 0.1127 - val_accuracy: 0.9641 ``` 这看起来是我们的最好的模型。它给了我们近乎 96.5% 的验证精确率,基于训练精度,它看起来不像我们的第一个模型那样过拟合。这可以通过下列的学习曲线验证。 ![Learning curves for fine-tuned pre-trained CNN](/data/attachment/album/201905/24/020039t5t818u85u41pree.png "Learning curves for fine-tuned pre-trained CNN") *微调过的预训练 CNN 的学习曲线* 让我们保存这个模型,因此我们能够在测试集上使用。 ``` model.save('vgg_finetuned.h5') ``` 这就完成了我们的模型训练阶段。现在我们准备好了在测试集上测试我们模型的性能。 ### 深度学习模型性能评估 我们将通过在我们的测试集上做预测来评估我们在训练阶段构建的三个模型,因为仅仅验证是不够的!我们同样构建了一个检测工具模块叫做 `model_evaluation_utils`,我们可以使用相关分类指标用来评估使用我们深度学习模型的性能。第一步是扩展我们的数据集。 ``` test_imgs_scaled = test_data / 255. test_imgs_scaled.shape, test_labels.shape # Output ((8268, 125, 125, 3), (8268,)) ``` 下一步包括载入我们保存的深度学习模型,在测试集上预测。 ``` # Load Saved Deep Learning Models basic_cnn = tf.keras.models.load_model('./basic_cnn.h5') vgg_frz = tf.keras.models.load_model('./vgg_frozen.h5') vgg_ft = tf.keras.models.load_model('./vgg_finetuned.h5') # Make Predictions on Test Data basic_cnn_preds = basic_cnn.predict(test_imgs_scaled, batch_size=512) vgg_frz_preds = vgg_frz.predict(test_imgs_scaled, batch_size=512) vgg_ft_preds = vgg_ft.predict(test_imgs_scaled, batch_size=512) basic_cnn_pred_labels = le.inverse_transform([1 if pred > 0.5 else 0 for pred in basic_cnn_preds.ravel()]) vgg_frz_pred_labels = le.inverse_transform([1 if pred > 0.5 else 0 for pred in vgg_frz_preds.ravel()]) vgg_ft_pred_labels = le.inverse_transform([1 if pred > 0.5 else 0 for pred in vgg_ft_preds.ravel()]) ``` 下一步是应用我们的 `model_evaluation_utils` 模块根据相应分类指标来检查每个模块的性能。 ``` import model_evaluation_utils as meu import pandas as pd basic_cnn_metrics = meu.get_metrics(true_labels=test_labels, predicted_labels=basic_cnn_pred_labels) vgg_frz_metrics = meu.get_metrics(true_labels=test_labels, predicted_labels=vgg_frz_pred_labels) vgg_ft_metrics = meu.get_metrics(true_labels=test_labels, predicted_labels=vgg_ft_pred_labels) pd.DataFrame([basic_cnn_metrics, vgg_frz_metrics, vgg_ft_metrics], index=['Basic CNN', 'VGG-19 Frozen', 'VGG-19 Fine-tuned']) ``` ![Model accuracy](/data/attachment/album/201905/24/020039pkgzie39gevrdfgy.png "Model accuracy") 看起来我们的第三个模型在我们的测试集上执行的最好,给出了一个模型精确性为 96% 的 F1 得分,这非常好,与我们之前提到的研究论文和文章中的更复杂的模型相当。 ### 总结 疟疾检测不是一个简单的过程,全球的合格人员的不足在病例诊断和治疗当中是一个严重的问题。我们研究了一个关于疟疾的有趣的真实世界的医学影像案例。利用 AI 的、易于构建的、开源的技术在检测疟疾方面可以为我们提供最先进的精确性,因此使 AI 具有社会效益。 我鼓励你查看这篇文章中提到的文章和研究论文,没有它们,我就不能形成概念并写出来。如果你对运行和采纳这些技术感兴趣,本篇文章所有的代码都可以在[我的 GitHub 仓库](https://nbviewer.jupyter.org/github/dipanjanS/data_science_for_all/tree/master/os_malaria_detection/)获得。记得从[官方网站](https://ceb.nlm.nih.gov/repositories/malaria-datasets/)下载数据。 让我们希望在健康医疗方面更多的采纳开源的 AI 能力,使它在世界范围内变得更便宜、更易用。 --- via: <https://opensource.com/article/19/4/detecting-malaria-deep-learning> 作者:[Dipanjan (DJ) Sarkar](https://opensource.com/users/djsarkar) 选题:[lujun9972](https://github.com/lujun9972) 译者:[warmfrog](https://github.com/warmfrog) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
Duc:一个能够可视化洞察硬盘使用情况的工具包
Sk
https://www.ostechnix.com/duc-a-collection-of-tools-to-inspect-and-visualize-disk-usage/
Duc 是一个快速而且灵活的工具。它将你的硬盘使用情况存在一个优化过的数据库里,这样你就可以在索引完成后迅速找到你的数据。此外,它自带不同的用户交互界面与后端以访问数据库并绘制图表。
/data/attachment/album/201905/24/122746i737b3g393879b67.png.thumb.jpg
/data/attachment/album/201905/24/122746i737b3g393879b67.png
true
false
true
lujun9972
tomjlw
wxy
false
[ "磁盘", "duc" ]
分享
{ "viewnum": 5817, "commentnum": 4, "favtimes": 3, "sharetimes": 0, "likes": 0 }
[ { "postip": "61.145.156.28", "message": "Cool!", "username": "来自广东深圳的 Chrome 74.0|GNU/Linux 用户", "date": "2019-05-24T13:46:06" }, { "postip": "61.145.156.28", "message": "Cool!", "username": "来自广东深圳的 Chrome 74.0|GNU/Linux 用户", "date": "2019-05-24T13:46:09" }, { "postip": "61.145.156.28", "message": "Cool!", "username": "来自广东深圳的 Chrome 74.0|GNU/Linux 用户", "date": "2019-05-24T13:46:09" }, { "postip": "171.8.221.2", "message": "感觉 du 命令就够用了", "username": "来自河南郑州的 Firefox 67.0|GNU/Linux 用户", "date": "2019-05-25T21:50:16" } ]
[]
Duc 是一个快速而且灵活的工具。它将你的硬盘使用情况存在一个优化过的数据库里,这样你就可以在索引完成后迅速找到你的数据。此外,它自带不同的用户交互界面与后端以访问数据库并绘制图表。
2019-05-24T12:27:44
2019-05-24T12:27:44
10,892
/article-10892-1.html
![Duc:一个能够洞察并可视化硬盘使用情况的工具包](/data/attachment/album/201905/24/122746i737b3g393879b67.png) Duc 是一个在类 Unix 操作系统上可以用来索引、洞察及可视化硬盘使用情况的工具包。别把它当成一个仅能用漂亮图表展现硬盘使用情况的 CLI 工具。它对巨大的文件系统也支持的很好。Duc 已在由超过五亿个文件和几 PB 的存储组成的系统上测试过,没有任何问题。 Duc 是一个快速而且灵活的工具。它将你的硬盘使用情况存在一个优化过的数据库里,这样你就可以在索引完成后迅速找到你的数据。此外,它自带不同的用户交互界面与后端以访问数据库并绘制图表。 以下列出的是目前支持的用户界面(UI): 1. 命令行界面(`duc ls`) 2. Ncurses 控制台界面(`duc ui`) 3. X11 GUI(`duc gui`) 4. OpenGL GUI(`duc gui`) 支持的后端数据库: * Tokyocabinet * Leveldb * Sqlite3 Duc 默认使用 Tokyocabinet 作为后端数据库。 ### 安装 Duc Duc 可以从 Debian 以及其衍生品例如 Ubuntu 的默认仓库中获取。因此在基于 DEB 的系统上安装 Duc 是小菜一碟。 ``` $ sudo apt-get install duc ``` 在其它 Linux 发行版上你需要像以下所展示的那样手动从源代码编译安装 Duc。 可以从 Github 上的[发行](https://github.com/zevv/duc/releases)页面下载最新的 Duc 源代码的 .tgz 文件。在写这篇教程的时候,最新的版本是1.4.4。 ``` $ wget https://github.com/zevv/duc/releases/download/1.4.4/duc-1.4.4.tar.gz ``` 然后一个接一个地运行以下命令来安装 DUC。 ``` $ tar -xzf duc-1.4.4.tar.gz $ cd duc-1.4.4 $ ./configure $ make $ sudo make install ``` ### 使用 Duc `duc` 的典型用法是: ``` $ duc <subcommand> <options> ``` 你可以通过运行以下命令来浏览总的选项列表以及子命令: ``` $ duc help ``` 你也可以像下面这样了解一个特定子命令的用法。 ``` $ duc help <subcommand> ``` 要查看所有命令与其选项的列表,仅需运行: ``` $ duc help --all ``` 让我们看看一些 `duc` 工具的特定用法。 ### 创建索引(数据库) 首先,你需要创建一个你文件系统的索引文件(数据库)。使用 `duc index` 命令以创建索引文件。 比如说,要创建你的 `/home` 目录的索引,仅需运行: ``` $ duc index /home ``` 上述命令将会创建你的 `/home` 目录的索引,并将其保存在 `$HOME/.duc.db` 文件中。如果你以后需要往 `/home` 目录添加新的文件或目录,只要在之后重新运行一下上面的命令来重建索引。 ### 查询索引 Duc 有不同的子命令来查询并探索索引。 要查看可访问的索引列表,运行: ``` $ duc info ``` 示例输出: ``` Date Time Files Dirs Size Path 2019-04-09 15:45:55 3.5K 305 654.6M /home ``` 如你在上述输出所见,我已经索引好了 `/home` 目录。 要列出当前工作目录中所有的文件和目录,你可以这样做: ``` $ duc ls ``` 要列出指定的目录,例如 `/home/sk/Downloads` 中的文件/目录,仅需像下面这样将路径作为参数传过去。 ``` $ duc ls /home/sk/Downloads ``` 类似的,运行 `duc ui` 命令来打开基于 ncurses 的控制台用户界面以探索文件系统使用情况,运行`duc gui` 以打开图形界面(X11)来探索文件系统。 要了解更多子命令的用法,仅需参考帮助部分。 ``` $ duc help ls ``` 上述命令将会展现 `ls` 子命令的帮助部分。 ### 可视化硬盘使用状况 在之前的部分我们以及看到如何用 duc 子命令列出文件和目录。在此之外,你甚至可以用一张漂亮的图表展示文件大小。 要展示所提供目录的图表,像以下这样使用 `ls` 子命令。 ``` $ duc ls -Fg /home/sk ``` 示例输出: ![使用 “duc ls” 命令可视化硬盘使用情况](/data/attachment/album/201905/24/122747zu4p4a1la17lpllp.png) 如你在上述输出所见,`ls` 子命令查询 duc 数据库并列出了所提供目录包含的文件与目录的大小,在这里就是 `/home/sk/`。 这里 `-F` 选项是往条目中用来添加文件类型指示符(`/`),`-g` 选项是用来绘制每个条目相对大小的图表。 请注意如果未提供任何路径,就会使用当前工作目录。 你可以使用 `-R` 选项来用[树状结构](https://www.ostechnix.com/view-directory-tree-structure-linux/)浏览硬盘使用情况。 ``` $ duc ls -R /home/sk ``` ![用树状结构可视化硬盘使用情况](/data/attachment/album/201905/24/122749k94q0l9jftxqzufr.png) 要查询 duc 数据库并打开基于 ncurses 的控制台以探索所提供的目录,像以下这样使用 `ui` 子命令。 ``` $ duc ui /home/sk ``` ![](/data/attachment/album/201905/24/122750p6irgz99ddhdfdyo.png) 类似的,我们使用 `gui *` 子命令来查询 duc 数据库以及打开一个图形界面(X11)来了解指定路径的硬盘使用情况。 ``` $ duc gui /home/sk ``` ![](/data/attachment/album/201905/24/122752cyyhozjhoyoxjo6y.png) 像我之前所提到的,我们可以像下面这样了解更多关于特定子命令的用法。 ``` $ duc help <子命令名字> ``` 我仅仅覆盖了基本用法的部分,参考 man 页面了解关于 `duc` 工具的更多细节。 ``` $ man duc ``` 相关阅读: * [Filelight – 在你的 Linux 系统上可视化硬盘使用情况](https://www.ostechnix.com/filelight-visualize-disk-usage-on-your-linux-system/) * [一些好的 du 命令的替代品](https://www.ostechnix.com/some-good-alternatives-to-du-command/) * [如何在 Linux 中用 Ncdu 检查硬盘使用情况](https://www.ostechnix.com/check-disk-space-usage-linux-using-ncdu/) * [Agedu——发现 Linux 中被浪费的硬盘空间](https://www.ostechnix.com/agedu-find-out-wasted-disk-space-in-linux/) * [如何在 Linux 中找到目录大小](https://www.ostechnix.com/find-size-directory-linux/) * [为初学者打造的带有示例的 df 命令教程](https://www.ostechnix.com/the-df-command-tutorial-with-examples-for-beginners/) ### 总结 Duc 是一款简单却有用的硬盘用量查看器。如果你想要快速简便地知道哪个文件/目录占用你的硬盘空间,Duc 可能是一个好的选择。你还等什么呢?获取这个工具,扫描你的文件系统,摆脱无用的文件/目录。 现在就到此为止了。希望这篇文章有用处。更多好东西马上就到。保持关注! 欢呼吧! 资源: * [Duc 网站](https://duc.zevv.nl/) --- via: <https://www.ostechnix.com/duc-a-collection-of-tools-to-inspect-and-visualize-disk-usage/> 作者:[sk](https://www.ostechnix.com/author/sk/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[tomjlw](https://github.com/tomjlw) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
PiShrink:使树莓派镜像更小
Sk
https://www.ostechnix.com/pishrink-make-raspberry-pi-images-smaller/
PiShrink 将自动缩小镜像,然后在启动时将其调整为 SD 卡的最大大小。
/data/attachment/album/201905/24/124416eti958m5tt55vtbv.png.thumb.jpg
/data/attachment/album/201905/24/124416eti958m5tt55vtbv.png
true
false
true
lujun9972
geekpi
wxy
false
[ "树莓派", "镜像" ]
树莓派
{ "viewnum": 10446, "commentnum": 1, "favtimes": 1, "sharetimes": 0, "likes": 0 }
[ { "postip": "42.98.106.38", "message": "赞呀,这个帖子帮我解决了问题!", "username": "来自香港的 Chrome 89.0|Windows 10 用户", "date": "2021-04-02T01:39:02" } ]
[]
PiShrink 将自动缩小镜像,然后在启动时将其调整为 SD 卡的最大大小。
2019-05-24T12:44:14
2019-05-24T12:44:14
10,894
/article-10894-1.html
![Make Raspberry Pi Images Smaller With PiShrink In Linux](/data/attachment/album/201905/24/124416eti958m5tt55vtbv.png) 树莓派不需要过多介绍。它是一款小巧、价格实惠,只有信用卡大小的电脑,它可以连接到显示器或电视。我们可以连接一个标准的键盘和鼠标,并将其用作一台成熟的台式计算机来完成日常任务,如互联网浏览、播放视频/玩游戏、文字处理和电子表格制作等。它主要是为学校的计算机科学教学而开发的。如今,树莓派被广泛用于大学、中小型组织和研究所来教授编码。 如果你有一台树莓派,你可能需要了解一个名为 PiShrink 的 bash 脚本,该脚本可使树莓派镜像更小。PiShrink 将自动缩小镜像,然后在启动时将其调整为 SD 卡的最大大小。这能更快地将镜像复制到 SD 卡中,同时缩小的镜像将更好地压缩。这对于将大容量镜像放入 SD 卡非常有用。在这个简短的指南中,我们将学习如何在类 Unix 系统中将树莓派镜像缩小到更小。 ### 安装 PiShrink 要在 Linux 机器上安装 PiShrink,请先使用以下命令下载最新版本: ``` $ wget https://raw.githubusercontent.com/Drewsif/PiShrink/master/pishrink.sh ``` 接下来,将下载的 PiShrink 变成二进制可执行文件: ``` $ chmod +x pishrink.sh ``` 最后,移动到目录: ``` $ sudo mv pishrink.sh /usr/local/bin/ ``` ### 使树莓派镜像更小 你可能已经知道,Raspbian 是所有树莓派型号的官方操作系统。树莓派基金会为 PC 和 Mac 开发了树莓派桌面版本。你可以创建一个 live CD,并在虚拟机中运行它,甚至也可以将其安装在桌面上。树莓派也有少量非官方​​操作系统镜像。为了测试,我从[官方下载页面](https://www.raspberrypi.org/downloads/)下载了官方的 Raspbian 系统。 解压下载的系统镜像: ``` $ unzip 2019-04-08-raspbian-stretch-lite.zip ``` 上面的命令将提取当前目录中 `2019-04-08-raspbian-stretch-lite.zip` 文件的内容。 让我们看下提取文件的实际大小: ``` $ du -h 2019-04-08-raspbian-stretch-lite.img 1.7G 2019-04-08-raspbian-stretch-lite.img ``` 如你所见,提取的树莓派系统镜像大小为 1.7G。 现在,使用 PiShrink 缩小此文件的大小,如下所示: ``` $ sudo pishrink.sh 2019-04-08-raspbian-stretch-lite.img ``` 示例输出: ``` Creating new /etc/rc.local rootfs: 39795/107072 files (0.1% non-contiguous), 239386/428032 blocks resize2fs 1.45.0 (6-Mar-2019) resize2fs 1.45.0 (6-Mar-2019) Resizing the filesystem on /dev/loop1 to 280763 (4k) blocks. Begin pass 3 (max = 14) Scanning inode table XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX Begin pass 4 (max = 3728) Updating inode references XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX The filesystem on /dev/loop1 is now 280763 (4k) blocks long. Shrunk 2019-04-08-raspbian-stretch-lite.img from 1.7G to 1.2G ``` 正如你在上面的输出中看到的,树莓派镜像的大小已减少到 1.2G。 你还可以使用 `-s` 标志跳过该过程的自动扩展部分。 ``` $ sudo pishrink.sh -s 2019-04-08-raspbian-stretch-lite.img newpi.img ``` 这将创建一个源镜像文件(即 `2019-04-08-raspbian-stretch-lite.img`)的副本到一个新镜像文件(`newpi.img`)并进行处理。有关更多详细信息,请查看最后给出的官方 GitHub 页面。 就是这些了。希望本文有用。还有更多好东西,敬请期待! 资源: * [PiShrink 的 GitHub 仓库](https://github.com/Drewsif/PiShrink) * [树莓派网站](https://www.raspberrypi.org/) --- via: <https://www.ostechnix.com/pishrink-make-raspberry-pi-images-smaller/> 作者:[sk](https://www.ostechnix.com/author/sk/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
使用 Ispell 在命令行中检查拼写
Scott Nesbitt
https://opensource.com/article/19/5/spelling-command-line-ispell
Ispell 可以帮助你在纯文本中消除超过 50 种语言的拼写错误。
/data/attachment/album/201905/24/192644wqqv6d0lztmqoqyl.jpg.thumb.jpg
/data/attachment/album/201905/24/192644wqqv6d0lztmqoqyl.jpg
true
false
true
lujun9972
geekpi
wxy
false
[ "拼写" ]
分享
{ "viewnum": 4355, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
Ispell 可以帮助你在纯文本中消除超过 50 种语言的拼写错误。
2019-05-24T19:27:04
2019-05-24T19:27:04
10,895
/article-10895-1.html
> > Ispell 可以帮助你在纯文本中消除超过 50 种语言的拼写错误。 > > > ![](/data/attachment/album/201905/24/192644wqqv6d0lztmqoqyl.jpg) 好的拼写是一种技巧。它是一项需要时间学习和掌握的技能。也就是说,有些人从来没有完全掌握这种技能,我知道有两三个出色的作家就无法完全掌握拼写。 即使你拼写得很好,偶尔也会输入错字。特别是在最后期限前如果你快速敲击键盘,那就更是如此。无论你的拼写的是什么,通过拼写检查器检查你所写的内容总是一个好主意。 我用[纯文本](https://plaintextproject.online)完成了我的大部分写作,并经常使用名为 [Aspell](https://opensource.com/article/18/2/how-check-spelling-linux-command-line-aspell) 的命令行拼写检查器来完成这项工作。Aspell 不是唯一的工具。你可能还想要看下不错的 [Ispell](https://www.cs.hmc.edu/%7Egeoff/ispell.html)。 ### 入门 自 1971 年以来,Ispell 就以各种形式出现过。不要被它的年龄欺骗。Ispell 仍然是一个可以在 21 世纪高效使用的应用。 在开始之前,请打开终端窗口并输入 `which ispell` 来检查计算机上是否安装了 Ispell。如果未安装,请打开发行版的软件包管理器并从那里安装 Ispell。 不要忘记为你使用的语言安装词典。我唯一使用的语言是英语,所以我只需下载美国和英国英语字典。你可以不局限于我的(也是唯一的)母语。Ispell 有[超过 50 种语言的词典](https://www.cs.hmc.edu/%7Egeoff/ispell-dictionaries.html)。 ![Installing Ispell dictionaries](/data/attachment/album/201905/24/192706zznjmeyv1yyg42qn.png "Installing Ispell dictionaries") ### 使用 Ispell 如果你还没有猜到,Ispell 只能用在文本文件。这包括用 HTML、LaTeX 和 [nroff 或 troff](https://opensource.com/article/18/2/how-format-academic-papers-linux-groff-me) 标记的文档。之后会有更多相关内容。 要开始使用,请打开终端窗口并进入包含要运行拼写检查的文件的目录。输入 `ispell` 后跟文件名,然后按回车键。 ![Checking spelling with Ispell](/data/attachment/album/201905/24/192707pkc089bjj0mjcabk.png "Checking spelling with Ispell") Ispell 高亮了它无法识别的第一个词。如果单词拼写错误,Ispell 通常会提供一个或多个备选方案。按下 `R`,然后按下正确选择旁边的数字。在上面的截图中,我按了 `R` 和 `0` 来修复错误。 另一方面,如果单词拼写正确,请按下 `A` 然后移动到下一个拼写错误的单词。 继续这样做直到到达文件的末尾。Ispell 会保存你的更改,创建你刚检查的文件的备份(扩展名为 `.bak`),然后关闭。 ### 其他几个选项 此示例说明了 Ispell 的基本用法。这个程序有[很多选项](https://www.cs.hmc.edu/%7Egeoff/ispell-man.html),有些你*可能*会用到,而另一些你*可能永远*不会使用。让我们快速看下我经常使用的一些。 之前我提到过 Ispell 可以用于某些标记语言。你需要告诉它文件的格式。启动 Ispell 时,为 TeX 或 LaTeX 文件添加 `-t`,为 HTML 文件添加 `-H`,对于 groff 或 troff 文件添加 `-n`。例如,如果输入 `ispell -t myReport.tex`,Ispell 将忽略所有标记。 如果你不想在检查文件后创建备份文件,请将 `-x` 添加到命令行。例如,`ispell -x myFile.txt`。 如果 Ispell 遇到拼写正确但不在其字典中的单词,比如名字,会发生什么?你可以按 `I` 将该单词添加到个人单词列表中。这会将单词保存到 `/home` 目录下的 `.ispell_default` 的文件中。 这些是我在使用 Ispell 时最有用的选项,但请查看 [Ispell 的手册页](https://www.cs.hmc.edu/%7Egeoff/ispell-man.html)以了解其所有选项。 Ispell 比 Aspell 或其他命令行拼写检查器更好或者更快么?我会说它不比其他的差或者慢。Ispell 不是适合所有人。它也许也不适合你。但有更多选择也不错,不是么? --- via: <https://opensource.com/article/19/5/spelling-command-line-ispell> 作者:[Scott Nesbitt](https://opensource.com/users/scottnesbitt) 选题:[lujun9972](https://github.com/lujun9972) 译者:[geekpi](https://github.com/geekpi) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
“文章助手”的助手
老王
半个月前,我们推出了一个“文章助手”的小程序,用于解决在微信公众号文章中无法放置可点击的链接的问题。
/data/attachment/album/201905/25/093229caa8kga3aiaylzw3.jpg.thumb.jpg
/data/attachment/album/201905/25/093229caa8kga3aiaylzw3.jpg
true
false
false
false
[ "小程序" ]
新闻
{ "viewnum": 4529, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[ { "raid": 10838, "displayorder": 0 }, { "raid": 11850, "displayorder": 0 } ]
半个月前,我们推出了一个“文章助手”的小程序,用于解决在微信公众号文章中无法放置可点击的链接的问题。
2019-05-25T09:36:00
2019-05-25T09:36:00
10,896
/article-10896-1.html
![](/data/attachment/album/201905/25/093229caa8kga3aiaylzw3.jpg) 半个月前,我们推出了一个“文章助手”的小程序,用于解决在微信公众号文章中**无法放置可点击的链接**的问题。 可能对于我们这种技术向的文章来说,很多时候都需要插入链接,而一个认真的读者也经常希望可以点击链接看看。在我们从 2013 年开始运营公众号以来,我们对此问题有过几种解决方案: * 直接将链接以文字的方式显示在**正文**中,读者需要手工选择并复制链接,然后另外在浏览器中打开 * 类似于文章脚注一样,将链接放置在**文末**,读者需要翻到文末,根据所要找的链接标号来复制并在浏览器中打开 * 将链接整理后放在另外一个 web 页面中,然后通过“**阅读原文**”的方式引导读者去点击,在其中完成链接功能 但是这几种方法都不太尽如人意,读者经常还是会下意识去点击文章内该出现链接的地方。所以,我们最近又有了新的解决方案。我们利用微信小程序的能力,在微信公众号文章内,采用小程序链接来替代外部链接;点击小程序链接后会打开该小程序,自动复制外部链接到剪贴板;打开浏览器(自动)贴入剪贴板中的链接来访问。 应该说,效果还是达到了我们的预期,虽然有些功能限于小程序本身支持无法做到,比如无法得到来源公众号的信息、无法主动唤起浏览器等。 不过,在使用过程中,公众号编辑们发现对链接一个个进行替换非常繁琐,所以,我决定给这个“文章助手”提供一个“助手”。我做了一个静态页面,在此页面内,只要将你编辑的公众号文章内容贴入其中的输入框,**一键点击**即可将全部链接转换为“文章助手”链接。 此外,经常还有认识或不认识的朋友,对我们的公众号排版表示好奇,比如这种<ruby> 注释性的标签 <rp> ( </rp> <rt> Ruby tag </rt> <rp> ) </rp></ruby>是怎么回事?也有人希望采用 PingFang 字体,这个是微信编辑器默认不提供的。这次我们就一便提供好了。 “文章助手”的助手地址如下: <https://linux.cn/static/tools/a.html> ![](/data/attachment/album/201905/25/091843exyg54kawayweyys.jpg) * 这个页面是纯静态页面,你可以连着其中使用的 jQuery 保存下来自行使用。 * 该小程序永久免费,并永久不添加第三方广告。 * 除不可抗力(如被微信官方封杀,但目前我们判断并未触犯微信使用规则),该小程序会一直运营下去。 * 贴入输入框的文章内容可能暂时不能显示来自微信已发送文章内的图片,但是并不影响转换和转换后再贴入微信编辑器内使用。 * 在输入框中选定格式“中文(English)”这样的内容时,点击下方的“转换 RUBY”的按钮,会将该字符串转换为<ruby> 中文 <rp> ( </rp> <rt> English </rt> <rp> ) </rp></ruby>样式。 * 如果要全文使用“PingFang”字体,转换前勾选即可(最显眼的区别是,逗号和句号是垂直居中而不是底线对齐的)。 好了,老王的这些家底都给你们了,祝你们的公众号文章看起来越来越专业、越来越漂亮。
在 Ubuntu 中使用 Slimbook Battery Optimizer 切换电源模式
Abhishek Prakash
https://itsfoss.com/slimbook-battry-optimizer-ubuntu/
Slimbook Battery Optimizer 是一个美观实用的指示器小程序,它可以让你在安装了 Linux 的笔记本上快速切换电源模式来延长续航时间。
/data/attachment/album/201905/25/101349katxob9x5oobb5tb.jpg.thumb.jpg
/data/attachment/album/201905/25/101349katxob9x5oobb5tb.jpg
true
false
true
lujun9972
zhs852
wxy
false
[ "电源", "电池" ]
桌面应用
{ "viewnum": 6622, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
Slimbook Battery Optimizer 是一个美观实用的指示器小程序,它可以让你在安装了 Linux 的笔记本上快速切换电源模式来延长续航时间。
2019-05-25T10:13:46
2019-05-25T10:13:46
10,897
/article-10897-1.html
> > Slimbook Battery Optimizer 是一个美观实用的指示器小程序,它可以让你在安装了 Linux 的笔记本上快速切换电源模式来延长续航时间。 > > > [Slimbook](https://slimbook.es/en/) 是一个销售 [预装 Linux 的笔记本电脑](https://itsfoss.com/get-linux-laptops/) 的西班牙电脑制造商,他们发布了一款好用的小程序,用来在基于 Ubuntu 的 Linux 发行版下调整电池性能。 因为 Slimbook 销售他们自己的 Linux 系统,所以他们制作了一些在 Linux 上用于调整他们自己硬件性能的小工具。Battery Optimizer 就是这样一个工具。 要使用这个实用小程序,你不必购买 Slimbook 的产品,因为 Slimbook 已经将它在 [他们的官方 PPA 源](https://launchpad.net/%7Eslimbook/+archive/ubuntu/slimbook) 发行了。 ### Slimbook Battery Optimizer 简介 这个程序叫 Slimbook Battery。它是一个常驻顶栏的指示器小程序,使得你可以快速切换电源模式。 ![Slimbook Battery Mode Ubuntu](/data/attachment/album/201905/25/101349katxob9x5oobb5tb.jpg) 你可能在 Windows 中见过类似的程序。Slimbook Battery 和它们一样,提供了类似的电源计划: * 节能:最大程度延长电池续航时间 * 平衡:性能与节能间的最佳平衡 * 高性能:最大程度提高性能 你可以在高级模式中配置这些模式: ![配置多种多样的电源模式](/data/attachment/album/201905/25/101350rlkelgsjji1491nl.jpg) 如果你觉得你把设置调乱了,你可以用“恢复默认设置”的按钮还原它。 你也可以修改像程序自启或默认电源模式这样的通用设置。 ![Slimbook Battery 通用设置](/data/attachment/album/201905/25/101351o9hj3j6ezm6nl0y9.jpg) Slimbook 有专门为多种电源管理参数提供的页面。如果你希望自己配置,请参照 [此页](https://slimbook.es/en/tutoriales/aplicaciones-slimbook/398-slimbook-battery-3-application-for-optimize-battery-of-your-laptop)。 不过,我认为 Slimbook 的界面需要一些改进。例如,某些页面上的“问题标记”的图标应该改为可点击的,以此提供更多信息。然而,在我写这篇文章时,那个标记仍然无法点击。 总的来说,Slimbook Battery 是一个小巧精美的软件,你可以用它来快速切换电源模式。如果你决定在 Ubuntu 及其衍生发行版上(比如 Linux Mint 或 elementary OS 等),你可以使用官方 [PPA 源](https://itsfoss.com/ppa-guide/)。 #### 在基于 Ubuntu 的发行版上安装 Slimbook Battery 打开终端,一步一步地使用以下命令: ``` sudo add-apt-repository ppa:slimbook/slimbook sudo apt update sudo apt install slimbookbattery ``` 安装好之后,在菜单中搜索 Slimbook Battery: ![启动 Slimbook Battery Optimizer](/data/attachment/album/201905/25/101351tb7mbqfmsju7zusb.jpg) 在你点击它之后,你会发现它出现在了顶栏。你可以在这里选择你希望使用的电源模式。 ![Slimbook Battery 电源模式](/data/attachment/album/201905/25/101349katxob9x5oobb5tb.jpg) #### 卸载 Slimbook Battery 如果你不再使用它,你可以通过以下命令来卸载它: ``` sudo apt remove slimbookbattery sudo add-apt-repository -r ppa:slimbook/slimbook ``` 在我看来,这样的应用程序为某些特定的目的服务,这是值得鼓励的。这个工具给了你一条调整电源模式的捷径,和调整性能的更多选项。 你用过 Slimbook Battery 吗?你觉得它如何? --- via: <https://itsfoss.com/slimbook-battry-optimizer-ubuntu/> 作者:[Abhishek Prakash](https://itsfoss.com/author/abhishek/) 选题:[lujun9972](https://github.com/lujun9972) 译者:[zhs852](https://github.com/zhs852) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
PHP PDO 简单教程
Rishabh Kandari
http://www.theitstuff.com/easiest-pdo-tutorial-basics
PHP 5.5 版本之前,我们有用于访问 MySQL 数据库的 mysql_ 命令,但由于安全性不足,它们最终被弃用。mysql_ 的弃用带来了访问数据库的两种主要方法:mysqli 和 PDO 库。
/data/attachment/album/201905/26/104631lriqriqrrusyyy22.jpg.thumb.jpg
/data/attachment/album/201905/26/104631lriqriqrrusyyy22.jpg
true
false
true
lujun9972
MjSeven
wxy
false
[ "PHP", "PDO" ]
软件开发
{ "viewnum": 6938, "commentnum": 0, "favtimes": 0, "sharetimes": 0, "likes": 0 }
[]
[]
PHP 5.5 版本之前,我们有用于访问 MySQL 数据库的 mysql_ 命令,但由于安全性不足,它们最终被弃用。mysql_ 的弃用带来了访问数据库的两种主要方法:mysqli 和 PDO 库。
2019-05-26T10:46:00
2019-05-26T10:46:00
10,899
/article-10899-1.html
![](/data/attachment/album/201905/26/104631lriqriqrrusyyy22.jpg) 大约 80% 的 Web 应用程序由 PHP 提供支持。类似地,SQL 也是如此。PHP 5.5 版本之前,我们有用于访问 MySQL 数据库的 mysql\_ 命令,但由于安全性不足,它们最终被弃用。 弃用这件事是发生在 2013 年的 PHP 5.5 上,我写这篇文章的时间是 2018 年,PHP 版本为 7.2。mysql\_ 的弃用带来了访问数据库的两种主要方法:mysqli 和 PDO 库。 虽然 mysqli 库是官方指定的,但由于 mysqli 只能支持 mysql 数据库,而 PDO 可以支持 12 种不同类型的数据库驱动程序,因此 PDO 获得了更多的赞誉。此外,PDO 还有其它一些特性,使其成为大多数开发人员的更好选择。你可以在下表中看到一些特性比较: | | PDO | MySQLi | | --- | --- | --- | | 数据库支持 | 12 种驱动 | 只有 MySQL | | 范例 | OOP | 过程 + OOP | | 预处理语句(客户端侧) | Yes | No | | 1命名参数 | Yes | No | 现在我想对于大多数开发人员来说,PDO 是首选的原因已经很清楚了。所以让我们深入研究它,并希望在本文中尽量涵盖关于 PDO 你需要的了解的。 ### 连接 第一步是连接到数据库,由于 PDO 是完全面向对象的,所以我们将使用 PDO 类的实例。 我们要做的第一件事是定义主机、数据库名称、用户名、密码和数据库字符集。 ``` $host = 'localhost'; $db = 'theitstuff'; $user = 'root'; $pass = 'root'; $charset = 'utf8mb4'; $dsn = "mysql:host=$host;dbname=$db;charset=$charset"; $conn = new PDO($dsn, $user, $pass); ``` 之后,正如你在上面的代码中看到的,我们创建了 DSN 变量,DSN 变量只是一个保存数据库信息的变量。对于一些在外部服务器上运行 MySQL 的人,你还可以通过提供一个 `port=$port_number` 来调整端口号。 最后,你可以创建一个 PDO 类的实例,我使用了 `$conn` 变量,并提供了 `$dsn`、`$user`、`$pass` 参数。如果你遵循这些步骤,你现在应该有一个名为 `$conn` 的对象,它是 PDO 连接类的一个实例。现在是时候进入数据库并运行一些查询。 ### 一个简单的 SQL 查询 现在让我们运行一个简单的 SQL 查询。 ``` $tis = $conn->query('SELECT name, age FROM students'); while ($row = $tis->fetch()) { echo $row['name']."\t"; echo $row['age']; echo "<br>"; } ``` 这是使用 PDO 运行查询的最简单形式。我们首先创建了一个名为 `tis`(TheITStuff 的缩写 )的变量,然后你可以看到我们使用了创建的 `$conn` 对象中的查询函数。 然后我们运行一个 `while` 循环并创建了一个 `$row` 变量来从 `$tis` 对象中获取内容,最后通过调用列名来显示每一行。 很简单,不是吗?现在让我们来看看预处理语句。 ### 预处理语句 预处理语句是人们开始使用 PDO 的主要原因之一,因为它提供了可以阻止 SQL 注入的语句。 有两种基本方法可供使用,你可以使用位置参数或命名参数。 #### 位置参数 让我们看一个使用位置参数的查询示例。 ``` $tis = $conn->prepare("INSERT INTO STUDENTS(name, age) values(?, ?)"); $tis->bindValue(1,'mike'); $tis->bindValue(2,22); $tis->execute(); ``` 在上面的例子中,我们放置了两个问号,然后使用 `bindValue()` 函数将值映射到查询中。这些值绑定到语句问号中的位置。 我还可以使用变量而不是直接提供值,通过使用 `bindParam()` 函数相同例子如下: ``` $name='Rishabh'; $age=20; $tis = $conn->prepare("INSERT INTO STUDENTS(name, age) values(?, ?)"); $tis->bindParam(1,$name); $tis->bindParam(2,$age); $tis->execute(); ``` ### 命名参数 命名参数也是预处理语句,它将值/变量映射到查询中的命名位置。由于没有位置绑定,因此在多次使用相同变量的查询中非常有效。 ``` $name='Rishabh'; $age=20; $tis = $conn->prepare("INSERT INTO STUDENTS(name, age) values(:name, :age)"); $tis->bindParam(':name', $name); $tis->bindParam(':age', $age); $tis->execute(); ``` 你可以注意到,唯一的变化是我使用 `:name` 和 `:age` 作为占位符,然后将变量映射到它们。冒号在参数之前使用,让 PDO 知道该位置是一个变量,这非常重要。 你也可以类似地使用 `bindValue()` 来使用命名参数直接映射值。 ### 获取数据 PDO 在获取数据时非常丰富,它实际上提供了许多格式来从数据库中获取数据。 你可以使用 `PDO::FETCH_ASSOC` 来获取关联数组,`PDO::FETCH_NUM` 来获取数字数组,使用 `PDO::FETCH_OBJ` 来获取对象数组。 ``` $tis = $conn->prepare("SELECT * FROM STUDENTS"); $tis->execute(); $result = $tis->fetchAll(PDO::FETCH_ASSOC); ``` 你可以看到我使用了 `fetchAll`,因为我想要所有匹配的记录。如果只需要一行,你可以简单地使用 `fetch`。 现在我们已经获取了数据,现在是时候循环它了,这非常简单。 ``` foreach ($result as $lnu){ echo $lnu['name']; echo $lnu['age']."<br>"; } ``` 你可以看到,因为我请求了关联数组,所以我正在按名称访问各个成员。 虽然在定义希望如何传输递数据方面没有要求,但在定义 `$conn` 变量本身时,实际上可以将其设置为默认值。 你需要做的就是创建一个 `$options` 数组,你可以在其中放入所有默认配置,只需在 `$conn` 变量中传递数组即可。 ``` $options = [ PDO::ATTR_DEFAULT_FETCH_MODE => PDO::FETCH_ASSOC, ]; $conn = new PDO($dsn, $user, $pass, $options); ``` 这是一个非常简短和快速的 PDO 介绍,我们很快就会制作一个高级教程。如果你在理解本教程的任何部分时遇到任何困难,请在评论部分告诉我,我会在那你为你解答。 --- via: <http://www.theitstuff.com/easiest-pdo-tutorial-basics> 作者:[Rishabh Kandari](http://www.theitstuff.com/author/reevkandari) 选题:[lujun9972](https://github.com/lujun9972) 译者:[MjSeven](https://github.com/MjSeven) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
API 演进的正确方式
A. Jesse
https://opensource.com/article/19/5/api-evolution-right-way
负责任的库作者与其用户的十个约定。
/data/attachment/album/201905/26/134131jnymeg7t7gmo6qcy.jpg.thumb.jpg
/data/attachment/album/201905/26/134131jnymeg7t7gmo6qcy.jpg
true
false
true
lujun9972
MjSeven
wxy
true
[ "Python", "类库" ]
软件开发
{ "viewnum": 8998, "commentnum": 2, "favtimes": 1, "sharetimes": 0, "likes": 0 }
[ { "postip": "112.114.100.51", "message": "您在百度可以搜到的 果敢老街位于云南省 临沧市 镇康县 南伞镇 出个国门 10公里就到了 <br />\r\n我们公司的实体 就在 缅甸果敢老街 双凤塔前面 80米左右 随时你可以视频验证呢<br />\r\n公司是经过这边政府合法营业,腾龙公司实力强大资金雄厚&nbsp;&nbsp;官网的顾客朋友,都可以放心的娱乐,不会像那些假平台黑你的钱,其一:一个投资上亿的公司每天拥有上万个网投客人,这样的公司是不会骗你那点小钱的,因为这么大的一个公司怎么可能会因为你的那点钱自毁名声呢。其二:缅甸的公司都是经过政府的审核以后才允许开的,政府把公司视为最大的经济核心,就算有心玩假,", "username": "来自云南临沧的 Chrome 55.0|Windows 10 用户", "date": "2019-06-21T23:01:56" }, { "postip": "58.58.197.174", "message": "翻译的真好,新译者学习了。", "username": "qfzy1233 [Chrome 77.0|Windows 10]", "date": "2019-07-05T11:18:22" } ]
[]
负责任的库作者与其用户的十个约定。
2019-05-26T13:42:16
2019-05-26T13:42:16
10,900
/article-10900-1.html
> > 负责任的库作者与其用户的十个约定。 > > > ![](/data/attachment/album/201905/26/134131jnymeg7t7gmo6qcy.jpg) 想象一下你是一个造物主,为一个生物设计一个身体。出于仁慈,你希望它能随着时间进化:首先,因为它必须对环境的变化作出反应;其次,因为你的智慧在增长,你对这个小东西想到了更好的设计,它不应该永远保持一个样子。 ![Serpents](/data/attachment/album/201905/26/134220rxfsxpef7pmk1wzy.jpg "Serpents") 然而,这个生物可能有赖于其目前解剖学的特征。你不能无所顾忌地添加翅膀或改变它的身材比例。它需要一个有序的过程来适应新的身体。作为一个负责任的设计者,你如何才能温柔地引导这种生物走向更大的进步呢? 对于负责任的库维护者也是如此。我们向依赖我们代码的人保证我们的承诺:我们会发布 bug 修复和有用的新特性。如果对库的未来有利,我们有时会删除某些特性。我们会不断创新,但我们不会破坏使用我们库的人的代码。我们怎样才能一次实现所有这些目标呢? ### 添加有用的特性 你的库不应该永远保持不变:你应该添加一些特性,使你的库更适合用户。例如,如果你有一个爬行动物类,并且如果有个可以飞行的翅膀是有用的,那就去添加吧。 ``` class Reptile: @property def teeth(self): return 'sharp fangs' # 如果 wings 是有用的,那就添加它! @property def wings(self): return 'majestic wings' ``` 但要注意,特性是有风险的。考虑 Python 标准库中以下功能,看看它出了什么问题。 ``` bool(datetime.time(9, 30)) == True bool(datetime.time(0, 0)) == False ``` 这很奇怪:将任何时间对象转换为布尔值都会得到 True,但午夜时间除外。(更糟糕的是,时区感知时间的规则更加奇怪。) 我已经写了十多年的 Python 了,但直到上周才发现这条规则。这种奇怪的行为会在用户代码中引起什么样的 bug? 比如说一个日历应用程序,它带有一个创建事件的函数。如果一个事件有一个结束时间,那么函数也应该要求它有一个开始时间。 ``` def create_event(day, start_time=None, end_time=None): if end_time and not start_time: raise ValueError("Can't pass end_time without start_time") # 女巫集会从午夜一直开到凌晨 4 点 create_event(datetime.date.today(), datetime.time(0, 0), datetime.time(4, 0)) ``` 不幸的是,对于女巫来说,从午夜开始的事件无法通过校验。当然,一个了解午夜怪癖的细心程序员可以正确地编写这个函数。 ``` def create_event(day, start_time=None, end_time=None): if end_time is not None and start_time is None: raise ValueError("Can't pass end_time without start_time") ``` 但这种微妙之处令人担忧。如果一个库作者想要创建一个伤害用户的 API,那么像午夜的布尔转换这样的“特性”很有效。 ![Man being chased by an alligator](/data/attachment/album/201905/26/134226k5f1mglbupccp6px.jpg "Man being chased by an alligator") 但是,负责任的创建者的目标是使你的库易于正确使用。 这个功能是由 Tim Peters 在 2002 年首次编写 datetime 模块时造成的。即时是像 Tim 这样的奠基 Python 的高手也会犯错误。[这个怪异之处后来被消除了](https://bugs.python.org/issue13936),现在所有时间的布尔值都是 True。 ``` # Python 3.5 以后 bool(datetime.time(9, 30)) == True bool(datetime.time(0, 0)) == True ``` 不知道午夜怪癖的古怪之处的程序员现在可以从这种晦涩的 bug 中解脱出来,但是一想到任何依赖于古怪的旧行为的代码现在没有注意变化,我就会感到紧张。如果从来没有实现这个糟糕的特性,情况会更好。这就引出了库维护者的第一个承诺: #### 第一个约定:避免糟糕的特性 最痛苦的变化是你必须删除一个特性。一般来说,避免糟糕特性的一种方法是少添加特性!没有充分的理由,不要使用公共方法、类、功能或属性。因此: #### 第二个约定:最小化特性 特性就像孩子:在充满激情的瞬间孕育,但是它们必须要支持多年(LCTT 译注:我怀疑作者在开车,可是我没有证据)。不要因为你能做傻事就去做傻事。不要画蛇添足! ![Serpents with and without feathers](/data/attachment/album/201905/26/134229yys47cug7acisiyy.jpg "Serpents with and without feathers") 但是,当然,在很多情况下,用户需要你的库中尚未提供的东西,你如何选择合适的功能给他们?以下另一个警示故事。 ### 一个来自 asyncio 的警示故事 你可能知道,当你调用一个协程函数,它会返回一个协程对象: ``` async def my_coroutine(): pass print(my_coroutine()) ``` ``` <coroutine object my_coroutine at 0x10bfcbac8> ``` 你的代码必须 “<ruby> 等待 <rt> await </rt></ruby>” 这个对象以此来运行协程。人们很容易忘记这一点,所以 asyncio 的开发人员想要一个“调试模式”来捕捉这个错误。当协程在没有等待的情况下被销毁时,调试模式将打印一个警告,并在其创建的行上进行回溯。 当 Yury Selivanov 实现调试模式时,他添加了一个“协程装饰器”的基础特性。装饰器是一个函数,它接收一个协程并返回任何内容。Yury 使用它在每个协程上接入警告逻辑,但是其他人可以使用它将协程转换为字符串 “hi!”。 ``` import sys def my_wrapper(coro): return 'hi!' sys.set_coroutine_wrapper(my_wrapper) async def my_coroutine(): pass print(my_coroutine()) ``` ``` hi! ``` 这是一个地狱般的定制。它改变了 “<ruby> 异步 <rt> async </rt></ruby>“ 的含义。调用一次 `set_coroutine_wrapper` 将在全局永久改变所有的协程函数。正如 [Nathaniel Smith 所说](https://bugs.python.org/issue32591):“一个有问题的 API” 很容易被误用,必须被删除。如果 asyncio 开发人员能够更好地按照其目标来设计该特性,他们就可以避免删除该特性的痛苦。负责任的创建者必须牢记这一点: #### 第三个约定:保持特性单一 幸运的是,Yury 有良好的判断力,他将该特性标记为临时,所以 asyncio 用户知道不能依赖它。Nathaniel 可以用更单一的功能替换 `set_coroutine_wrapper`,该特性只定制回溯深度。 ``` import sys sys.set_coroutine_origin_tracking_depth(2) async def my_coroutine(): pass print(my_coroutine()) ``` ``` <coroutine object my_coroutine at 0x10bfcbac8> RuntimeWarning:'my_coroutine' was never awaited Coroutine created at (most recent call last) File "script.py", line 8, in <module> print(my_coroutine()) ``` 这样好多了。没有可以更改协程的类型的其他全局设置,因此 asyncio 用户无需编写防御代码。造物主应该像 Yury 一样有远见。 #### 第四个约定:标记实验特征“临时” 如果你只是预感你的生物需要犄角和四叉舌,那就引入这些特性,但将它们标记为“临时”。 ![Serpent with horns](/data/attachment/album/201905/26/134230k6rhvv5o9aov9aw5.jpg "Serpent with horns") 你可能会发现犄角是无关紧要的,但是四叉舌是有用的。在库的下一个版本中,你可以删除前者并标记后者为正式的。 ### 删除特性 无论我们如何明智地指导我们的生物进化,总会有一天想要删除一个正式特征。例如,你可能已经创建了一只蜥蜴,现在你选择删除它的腿。也许你想把这个笨拙的家伙变成一条时尚而现代的蟒蛇。 ![Lizard transformed to snake](/data/attachment/album/201905/26/134235hhu4kk9984kknk9k.jpg "Lizard transformed to snake") 删除特性主要有两个原因。首先,通过用户反馈或者你自己不断增长的智慧,你可能会发现某个特性是个坏主意。午夜怪癖的古怪行为就是这种情况。或者,最初该特性可能已经很好地适应了你的库环境,但现在生态环境发生了变化,也许另一个神发明了哺乳动物,你的生物想要挤进哺乳动物的小洞穴里,吃掉里面美味的哺乳动物,所以它不得不失去双腿。 ![A mouse](/data/attachment/album/201905/26/134240iiixxm7p7pdp8xzw.jpg "A mouse") 同样,Python 标准库会根据语言本身的变化删除特性。考虑 asyncio 的 Lock 功能,在把 `await` 作为一个关键字添加进来之前,它一直在等待: ``` lock = asyncio.Lock() async def critical_section(): await lock try: print('holding lock') finally: lock.release() ``` 但是现在,我们可以做“异步锁”: ``` lock = asyncio.Lock() async def critical_section(): async with lock: print('holding lock') ``` 新方法好多了!很短,并且在一个大函数中使用其他 try-except 块时不容易出错。因为“尽量找一种,最好是唯一一种明显的解决方案”,[旧语法在 Python 3.7 中被弃用](https://bugs.python.org/issue32253),并且很快就会被禁止。 不可避免的是,生态变化会对你的代码产生影响,因此要学会温柔地删除特性。在此之前,请考虑删除它的成本或好处。负责任的维护者不会愿意让用户更改大量代码或逻辑。(还记得 Python 3 在重新添加会 `u` 字符串前缀之前删除它是多么痛苦吗?)如果代码删除是机械性的动作,就像一个简单的搜索和替换,或者如果该特性是危险的,那么它可能值得删除。 #### 是否删除特性 ![Balance scales](/data/attachment/album/201905/26/134242nn31guu3bx4gqe4t.jpg "Balance scales") | 反对 | 支持 | | --- | --- | | 代码必须改变 | 改变是机械性的 | | 逻辑必须改变 | 特性是危险的 | 就我们饥饿的蜥蜴而言,我们决定删除它的腿,这样它就可以滑进老鼠洞里吃掉它。我们该怎么做呢?我们可以删除 `walk` 方法,像下面一样修改代码: ``` class Reptile: def walk(self): print('step step step') ``` 变成这样: ``` class Reptile: def slither(self): print('slide slide slide') ``` 这不是一个好主意,这个生物习惯于走路!或者,就库而言,你的用户拥有依赖于现有方法的代码。当他们升级到最新库版本时,他们的代码将会崩溃。 ``` # 用户的代码,哦,不! Reptile.walk() ``` 因此,负责任的创建者承诺: #### 第五条预定:温柔地删除 温柔地删除一个特性需要几个步骤。从用腿走路的蜥蜴开始,首先添加新方法 `slither`。接下来,弃用旧方法。 ``` import warnings class Reptile: def walk(self): warnings.warn( "walk is deprecated, use slither", DeprecationWarning, stacklevel=2) print('step step step') def slither(self): print('slide slide slide') ``` Python 的 warnings 模块非常强大。默认情况下,它会将警告输出到 stderr,每个代码位置只显示一次,但你可以禁用警告或将其转换为异常,以及其它选项。 一旦将这个警告添加到库中,PyCharm 和其他 IDE 就会使用删除线呈现这个被弃用的方法。用户马上就知道该删除这个方法。 > > Reptile().~~walk()~~ > > > 当他们使用升级后的库运行代码时会发生什么? ``` $ python3 script.py DeprecationWarning: walk is deprecated, use slither script.py:14: Reptile().walk() step step step ``` 默认情况下,他们会在 stderr 上看到警告,但脚本会成功并打印 “step step step”。警告的回溯显示必须修复用户代码的哪一行。(这就是 `stacklevel` 参数的作用:它显示了用户需要更改的调用,而不是库中生成警告的行。)请注意,错误消息有指导意义,它描述了库用户迁移到新版本必须做的事情。 你的用户可能会希望测试他们的代码,并证明他们没有调用弃用的库方法。仅警告不会使单元测试失败,但异常会失败。Python 有一个命令行选项,可以将弃用警告转换为异常。 ``` > python3 -Werror::DeprecationWarning script.py Traceback (most recent call last): File "script.py", line 14, in <module> Reptile().walk() File "script.py", line 8, in walk DeprecationWarning, stacklevel=2) DeprecationWarning: walk is deprecated, use slither ``` 现在,“step step step” 没有输出出来,因为脚本以一个错误终止。 因此,一旦你发布了库的一个版本,该版本会警告已启用的 `walk` 方法,你就可以在下一个版本中安全地删除它。对吧? 考虑一下你的库用户在他们项目的 `requirements` 中可能有什么。 ``` # 用户的 requirements.txt 显示 reptile 包的依赖关系 reptile ``` 下次他们部署代码时,他们将安装最新版本的库。如果他们尚未处理所有的弃用,那么他们的代码将会崩溃,因为代码仍然依赖 `walk`。你需要温柔一点,你必须向用户做出三个承诺:维护更改日志,选择版本化方案和编写升级指南。 #### 第六个约定:维护变更日志 你的库必须有更改日志,其主要目的是宣布用户所依赖的功能何时被弃用或删除。 > > **版本 1.1 中的更改** > > > **新特性** > > > * 新功能 Reptile.slither() > > > **弃用** > > > * Reptile.walk() 已弃用,将在 2.0 版本中删除,请使用 slither() > > > 负责任的创建者会使用版本号来表示库发生了怎样的变化,以便用户能够对升级做出明智的决定。“版本化方案”是一种用于交流变化速度的语言。 #### 第七个约定:选择一个版本化方案 有两种广泛使用的方案,[语义版本控制](https://semver.org)和基于时间的版本控制。我推荐任何库都进行语义版本控制。Python 的风格在 [PEP 440](https://www.python.org/dev/peps/pep-0440/) 中定义,像 `pip` 这样的工具可以理解语义版本号。 如果你为库选择语义版本控制,你可以使用版本号温柔地删除腿,例如: > > 1.0: 第一个“稳定”版,带有 `walk()` 1.1: 添加 `slither()`,废弃 `walk()` 2.0: 删除 `walk()` > > > 你的用户依赖于你的库的版本应该有一个范围,例如: ``` # 用户的 requirements.txt reptile>=1,<2 ``` 这允许他们在主要版本中自动升级,接收错误修正并可能引发一些弃用警告,但不会升级到**下**个主要版本并冒着更改破坏其代码的风险。 如果你遵循基于时间的版本控制,则你的版本可能会编号: > > 2017.06.0: 2017 年 6 月的版本 2018.11.0: 添加 `slither()`,废弃 `walk()` 2019.04.0: 删除 `walk()` > > > 用户可以这样依赖于你的库: ``` # 用户的 requirements.txt,基于时间控制的版本 reptile==2018.11.* ``` 这非常棒,但你的用户如何知道你的版本方案,以及如何测试代码来进行弃用呢?你必须告诉他们如何升级。 #### 第八个约定:写一个升级指南 下面是一个负责任的库创建者如何指导用户: > > **升级到 2.0** > > > **从弃用的 API 迁移** > > > 请参阅更改日志以了解已弃用的特性。 > > > **启用弃用警告** > > > 升级到 1.1 并使用以下代码测试代码: > > > `python -Werror::DeprecationWarning` > > > ​​​​​​ 现在可以安全地升级了。 > > > 你必须通过向用户显示命令行选项来教会用户如何处理弃用警告。并非所有 Python 程序员都知道这一点 —— 我自己就每次都得查找这个语法。注意,你必须*发布*一个版本,它输出来自每个弃用的 API 的警告,以便用户可以在再次升级之前使用该版本进行测试。在本例中,1.1 版本是小版本。它允许你的用户逐步重写代码,分别修复每个弃用警告,直到他们完全迁移到最新的 API。他们可以彼此独立地测试代码和库的更改,并隔离 bug 的原因。 如果你选择语义版本控制,则此过渡期将持续到下一个主要版本,从 1.x 到 2.0,或从 2.x 到 3.0 以此类推。删除生物腿部的温柔方法是至少给它一个版本来调整其生活方式。不要一次性把腿删掉! ![A skink](/data/attachment/album/201905/26/134245ypfefay2pwy4hfly.jpg "A skink") 版本号、弃用警告、更改日志和升级指南可以协同工作,在不违背与用户约定的情况下温柔地改进你的库。[Twisted 项目的兼容性政策](https://twistedmatrix.com/documents/current/core/development/policy/compatibility-policy.html) 解释的很漂亮: > > “先行者总是自由的” > > > 运行的应用程序在没有任何警告的情况下都可以升级为 Twisted 的一个次要版本。 > > > 换句话说,任何运行其测试而不触发 Twisted 警告的应用程序应该能够将其 Twisted 版本升级至少一次,除了可能产生新警告之外没有任何不良影响。 > > > 现在,我们的造物主已经获得了智慧和力量,可以通过添加方法来添加特性,并温柔地删除它们。我们还可以通过添加参数来添加特性,但这带来了新的难度。你准备好了吗? ### 添加参数 想象一下,你只是给了你的蛇形生物一对翅膀。现在你必须允许它选择是滑行还是飞行。目前它的 `move` 功能只接受一个参数。 ``` # 你的库代码 def move(direction): print(f'slither {direction}') # 用户的应用 move('north') ``` 你想要添加一个 `mode` 参数,但如果用户升级库,这会破坏他们的代码,因为他们只传递了一个参数。 ``` # 你的库代码 def move(direction, mode): assert mode in ('slither', 'fly') print(f'{mode} {direction}') # 一个用户的代码,出现错误! move('north') ``` 一个真正聪明的创建者者会承诺不会以这种方式破坏用户的代码。 #### 第九条约定:兼容地添加参数 要保持这个约定,请使用保留原始行为的默认值添加每个新参数。 ``` # 你的库代码 def move(direction, mode='slither'): assert mode in ('slither', 'fly') print(f'{mode} {direction}') # 用户的应用 move('north') ``` 随着时间推移,参数是函数演化的自然历史。它们首先列出最老的参数,每个都有默认值。库用户可以传递关键字参数以选择特定的新行为,并接受所有其他行为的默认值。 ``` # 你的库代码 def move(direction, mode='slither', turbo=False, extra_sinuous=False, hail_lyft=False): # ... # 用户应用 move('north', extra_sinuous=True) ``` 但是有一个危险,用户可能会编写如下代码: ``` # 用户应用,简写 move('north', 'slither', False, True) ``` 如果在你在库的下一个主要版本中去掉其中一个参数,例如 `turbo`,会发生什么? ``` # 你的库代码,下一个主要版本中 "turbo" 被删除 def move(direction, mode='slither', extra_sinuous=False, hail_lyft=False): # ... # 用户应用,简写 move('north', 'slither', False, True) ``` 用户的代码仍然能编译,这是一件坏事。代码停止了曲折的移动并开始招呼 Lyft,这不是它的本意。我相信你可以预测我接下来要说的内容:删除参数需要几个步骤。当然,首先弃用 `trubo` 参数。我喜欢这种技术,它可以检测任何用户的代码是否依赖于这个参数。 ``` # 你的库代码 _turbo_default = object() def move(direction, mode='slither', turbo=_turbo_default, extra_sinuous=False, hail_lyft=False): if turbo is not _turbo_default: warnings.warn( "'turbo' is deprecated", DeprecationWarning, stacklevel=2) else: # The old default. turbo = False ``` 但是你的用户可能不会注意到警告。警告声音不是很大:它们可以在日志文件中被抑制或丢失。用户可能会漫不经心地升级到库的下一个主要版本——那个删除 `turbo` 的版本。他们的代码运行时将没有错误、默默做错误的事情!正如 Python 之禅所说:“错误绝不应该被默默 pass”。实际上,爬行动物的听力很差,所有当它们犯错误时,你必须非常大声地纠正它们。 ![Woman riding an alligator](/data/attachment/album/201905/26/134247pcaszfvmwcqmmwhh.jpg "Woman riding an alligator") 保护用户的最佳方法是使用 Python 3 的星型语法,它要求调用者传递关键字参数。 ``` # 你的库代码 # 所有 “*” 后的参数必须以关键字方式传输。 def move(direction, *, mode='slither', turbo=False, extra_sinuous=False, hail_lyft=False): # ... # 用户代码,简写 # 错误!不能使用位置参数,关键字参数是必须的 move('north', 'slither', False, True) ``` 有了这个星,以下是唯一允许的语法: ``` # 用户代码 move('north', extra_sinuous=True) ``` 现在,当你删除 `turbo` 时,你可以确定任何依赖于它的用户代码都会明显地提示失败。如果你的库也支持 Python2,这没有什么大不了。你可以模拟星型语法([归功于 Brett Slatkin](http://www.informit.com/articles/article.aspx?p=2314818)): ``` # 你的库代码,兼容 Python 2 def move(direction, **kwargs): mode = kwargs.pop('mode', 'slither') turbo = kwargs.pop('turbo', False) sinuous = kwargs.pop('extra_sinuous', False) lyft = kwargs.pop('hail_lyft', False) if kwargs: raise TypeError('Unexpected kwargs: %r' % kwargs) # ... ``` 要求关键字参数是一个明智的选择,但它需要远见。如果允许按位置传递参数,则不能仅在以后的版本中将其转换为仅关键字。所以,现在加上星号。你可以在 asyncio API 中观察到,它在构造函数、方法和函数中普遍使用星号。尽管到目前为止,`Lock` 只接受一个可选参数,但 asyncio 开发人员立即添加了星号。这是幸运的。 ``` # In asyncio. class Lock: def __init__(self, *, loop=None): # ... ``` 现在,我们已经获得了改变方法和参数的智慧,同时保持与用户的约定。现在是时候尝试最具挑战性的进化了:在不改变方法或参数的情况下改变行为。 ### 改变行为 假设你创造的生物是一条响尾蛇,你想教它一种新行为。 ![Rattlesnake](/data/attachment/album/201905/26/134255yhc6lxmz6m6jjkkz.jpg "Rattlesnake") 横向移动!这个生物的身体看起来是一样的,但它的行为会发生变化。我们如何为这一进化步骤做好准备? ![](/data/attachment/album/201905/26/134313i7wd5lln5rdlciji.png) *Image by HCA [[CC BY-SA 4.0](https://creativecommons.org/licenses/by-sa/4.0)], [via Wikimedia Commons](https://commons.wikimedia.org/wiki/File:Neonate_sidewinder_sidewinding_with_tracks_unlabeled.jpg), 由 Opensource.com 修改* 当行为在没有新函数或新参数的情况下发生更改时,负责任的创建者可以从 Python 标准库中学习。很久以前,os 模块引入了 `stat` 函数来获取文件统计信息,比如创建时间。起初,这个时间总是整数。 ``` >>> os.stat('file.txt').st_ctime 1540817862 ``` 有一天,核心开发人员决定在 `os.stat` 中使用浮点数来提供亚秒级精度。但他们担心现有的用户代码还没有做好准备更改。于是他们在 Python 2.3 中创建了一个设置 `stat_float_times`,默认情况下是 `False` 。用户可以将其设置为 True 来选择浮点时间戳。 ``` >>> # Python 2.3. >>> os.stat_float_times(True) >>> os.stat('file.txt').st_ctime 1540817862.598021 ``` 从 Python 2.5 开始,浮点时间成为默认值,因此 2.5 及之后版本编写的任何新代码都可以忽略该设置并期望得到浮点数。当然,你可以将其设置为 `False` 以保持旧行为,或将其设置为 `True` 以确保所有 Python 版本都得到浮点数,并为删除 `stat_float_times` 的那一天准备代码。 多年过去了,在 Python 3.1 中,该设置已被弃用,以便为人们为遥远的未来做好准备,最后,经过数十年的旅程,[这个设置被删除](https://bugs.python.org/issue31827)。浮点时间现在是唯一的选择。这是一个漫长的过程,但负责任的神灵是有耐心的,因为我们知道这个渐进的过程很有可能于意外的行为变化拯救用户。 #### 第十个约定:逐渐改变行为 以下是步骤: * 添加一个标志来选择新行为,默认为 `False`,如果为 `False` 则发出警告 * 将默认值更改为 `True`,表示完全弃用标记 * 删除该标志 如果你遵循语义版本控制,版本可能如下: | 库版本 | 库 API | 用户代码 | | --- | --- | --- | | 1.0 | 没有标志 | 预期的旧行为 | | 1.1 | 添加标志,默认为 `False`,如果是 `False`,则警告 | 设置标志为 `True`,处理新行为 | | 2.0 | 改变默认为 `True`,完全弃用标志 | 处理新行为 | | 3.0 | 移除标志 | 处理新行为 | 你需要**两**个主要版本来完成该操作。如果你直接从“添加标志,默认为 `False`,如果是 `False` 则发出警告”变到“删除标志”,而没有中间版本,那么用户的代码将无法升级。为 1.1 正确编写的用户代码必须能够升级到下一个版本,除了新警告之外,没有任何不良影响,但如果在下一个版本中删除了该标志,那么该代码将崩溃。一个负责任的神明从不违反扭曲的政策:“先行者总是自由的”。 ### 负责任的创建者 ![Demeter](/data/attachment/album/201905/26/134315sk08fu8tfh7t7007.jpg "Demeter") 我们的 10 个约定大致可以分为三类: **谨慎发展** 1. 避免不良功能 2. 最小化特性 3. 保持功能单一 4. 标记实验特征“临时” 5. 温柔删除功能 **严格记录历史** 1. 维护更改日志 2. 选择版本方案 3. 编写升级指南 **缓慢而明显地改变** 1. 兼容添加参数 2. 逐渐改变行为 如果你对你所创造的物种保持这些约定,你将成为一个负责任的造物主。你的生物的身体可以随着时间的推移而进化,一直在改善和适应环境的变化,而不是在生物没有准备好就突然改变。如果你维护一个库,请向用户保留这些承诺,这样你就可以在不破坏依赖该库的代码的情况下对库进行更新。 --- 这篇文章最初是在 [A. Jesse Jiryu Davis 的博客上'](https://emptysqua.re/blog/api-evolution-the-right-way/)出现的,经允许转载。 插图参考: * [《世界进步》, Delphian Society, 1913](https://www.gutenberg.org/files/42224/42224-h/42224-h.htm) * [《走进蛇的历史》, Charles Owen, 1742](https://publicdomainreview.org/product-att/artist/charles-owen/) * [关于哥斯达黎加的 batrachia 和爬行动物,关于尼加拉瓜和秘鲁的爬行动物和鱼类学的记录, Edward Drinker Cope, 1875](https://archive.org/details/onbatrachiarepti00cope/page/n3) * [《自然史》, Richard Lydekker et. al., 1897](https://www.flickr.com/photos/internetarchivebookimages/20556001490) * [Mes Prisons, Silvio Pellico, 1843](https://www.oldbookillustrations.com/illustrations/stationery/) * [Tierfotoagentur / m.blue-shadow](https://www.alamy.com/mediacomp/ImageDetails.aspx?ref=D7Y61W) * [洛杉矶公共图书馆, 1930](https://www.vintag.es/2013/06/riding-alligator-c-1930s.html) --- via: <https://opensource.com/article/19/5/api-evolution-right-way> 作者:[A. Jesse](https://opensource.com/users/emptysquare) 选题:[lujun9972](https://github.com/lujun9972) 译者:[MjSeven](https://github.com/MjSeven) 校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出