揭秘算法:非技术指南,告诉您它们如何影响您的生活

在当今世界,算法无处不在。它们决定了你在社交媒体上看到什么、在Google搜索结果中获得什么、Netflix推荐的节目以及AI工具如ChatGPT如何回应你的问题。但对许多人来说,“算法”这个术语仍然有些神秘。算法究竟是什么,为什么它们对我们的生活产生如此大的影响?在本指南中,我将解释算法是什么,为什么它们重要,以及它们如何在不过多技术化的情况下塑造我们日常与技术互动中的许多方面。

Photo by Luke Chesser on Unsplash

什么是算法?

在最简单的情况下,算法是一组旨在解决问题或完成任务的指令或步骤。想像它就像按照食谱进行操作(免责声明,我不会做烘培):

  • 收集配料
  • 将它们混合在一起。
  • 在特定的时间和温度下烘烤。
  • 服务和享受

同样,算法帮助计算机、应用程序和网站做出决策。当你在谷歌上搜索某些东西时,算法会接收你的输入(搜索词),快速地筛选大量网页,提供最相关的结果。当你浏览Instagram的动态或向虚拟助手寻求方向时,也是同样的情况。就像食谱告诉你如何烤蛋糕一样,算法给计算机提供逐步完成任务的指令。

算法的美妙之处在于它们可以让计算机快速高效地解决问题,通常处理大量数据,而这些数据对人类来说独自处理是不可能的。这就是为什么它们被广泛应用在现代技术的各个领域。

为什么算法如此重要?

数据算法是现代技术的支柱。它们使公司和服务能够处理大量数据并在几秒钟内做出决策,同时为每个用户定制体验。没有算法,我们的数码体验将会远不如个性化且速度缓慢。

这里有一些实际世界中算法如何运作的例子:

  1. 社交媒体动态:您是否曾经想知道为什么有些帖子会出现在您的动态顶部,而其他一些却似乎消失了?像Instagram、Facebook和Twitter等社交媒体平台使用算法来分析您的行为 - 例如您喜欢、分享或评论的帖子 - 并根据他们认为您最有可能参与的内容对内容进行优先排序。这就是为什么您经常会看到来自朋友或您经常互动的帐户的帖子。社交媒体算法本质上是为您策划体验,确保您看到他们预测您会感兴趣的内容,即使这意味着推开其他同样重要的内容[1]。
  2. 搜索引擎:谷歌使用复杂的算法来确定当您输入查询时哪些网站应该排名较高。 这些算法评估诸如相关性、内容的及时性、链接到页面的网站数量,甚至您个人的搜索历史等因素。这就是为什么谷歌可以为您提供快速准确的搜索结果,定制为它认为您正在搜索的内容。如果没有这样的算法,您将需要花费数小时来筛选出无关网页,才能找到您需要的信息。
  3. 流媒体服务:Netflix 和 Spotify 在推荐节目,电影和歌曲方面大量依赖算法。这些平台会追踪你观看或收听过的内容,然后预测你可能会喜欢的下一个项目,创造个性化推荐以保持你的参与度。这些算法不仅旨在增强你的体验,还旨在鼓励你在平台上花费更多时间。事实上,许多流媒体服务将他们的成功归功于推荐算法,这已经成为推动用户参与和满意度的关键因素。
  4. 在线购物:像亚马逊这样的平台使用推荐算法根据您以前的购买记录、搜索历史甚至类似的客户购买的产品来为您推荐您可能喜欢的产品。这不仅使购物更加方便,还推动了公司的销售。这些算法还使用实时数据为您提供针对性的优惠,营造出高度个性化的购物体验。
  5. AI工具如ChatGPT:AI工具如ChatGPT依赖称为语言模型的复杂算法。这些工具处理大量文本并分析模式,以提供类似人类的响应。当您向ChatGPT提出问题时,算法根据其训练数据和您问题的上下文来预测最佳答案。这项技术不仅仅局限于对话式AI;它支撑着许多现代AI系统,从像Siri这样的语音助手到公司使用的自动客户服务机器人。

算法的一些后果

虽然算法使生活更加方便,但也具有重要影响。它塑造了我们看到的内容,影响了我们的决策,甚至影响了我们对世界的看法。让我们探讨一些算法可能产生意想不到后果的重要领域。

1. 偏见和歧视

其中一个与算法相关的主要问题是潜在的偏见。由于人类创建和训练算法,他们可能会无意中将偏见引入系统中。例如,在面部识别系统中使用的算法已被证明更频繁地误识别皮肤较暗的人比皮肤较浅的人。这可能会在执法和安全等领域产生严重后果。

即使在招聘等领域,算法也被证明偏袒某些候选人,这是基于带有偏见的数据。如果用于训练算法的数据反映了社会不平等,算法可能会强化这些偏见,根据性别或种族等因素排除合格的候选人。这就是为什么对算法进行偏见审计以确保它们在各种群体间公平执行变得越来越重要。

此外,用于训练算法的数据可以反映社会中的历史偏见和权力失衡,从而强化系统性的不平等。这引起了伦理关注,特别是当这些算法用于关键领域如刑事司法、医疗保健和教育时。

2. 透明度不足

算法的另一个关键问题是它们经常在幕后运行,公司并不总是公开它们的运行方式。这种缺乏透明度可能令人担忧,特别是当算法用于关键领域时。例如,如果一个算法决定某人是否有资格获得贷款,但决策背后的过程是隐藏的,这就引发了关于公平性和责任的伦理关注。

在社交媒体上,算法决定了哪些内容被优先显示,哪些被隐藏起来。如果用户不知道为什么会看到某些帖子而其他的帖子却没有显示出来,那么他们就很难理解他们的在线体验是如何被塑造的。

算法决策缺乏透明度,使得个人难以挑战或质疑自动系统做出的决定也变得困难。例如,如果一个人被拒绝贷款或工作是基于算法评估,他们如何能够质疑这个决定,如果他们不理解该决定是如何做出的呢?

3. 回声室和筛选气泡

社交媒体算法的设计目的是向您展示符合您兴趣的内容。虽然这可以带来个性化体验,但也可能限制您接触到的信息多样性。随着时间的推移,您可能会发现自己处于一个“回音室”,您只会看到强化您自己观点的帖子和意见。这会使您更难接触新的观点,并促进网络上意见的日益分化。

同样,“过滤泡泡”发生在算法基于你的过去行为限制你看到的内容时。例如,如果你经常观看特定主题的视频,YouTube的算法将继续推荐类似的内容,这会让你更难发现超出你典型兴趣范围的东西。这可能会限制你探索新观念、产品或经验的能力。

4. 隐私问题

算法通常依赖大量个人数据来有效运行。从跟踪您的浏览习惯到分析您的位置数据,算法收集和处理了大量关于您的信息。虽然这些数据被用来个性化您的体验,但也引起了隐私问题。

许多人并没有意识到被搜集了多少数据,以及这些数据是如何被使用的。例如,当你看到之前浏览过的产品的广告时,那是因为一个算法追踪了你在多个网站上的行为。随着算法变得更加复杂,关于数据安全和隐私的问题变得更为关键。谁可以访问这些数据,以及它是如何被使用或存储的?

我能做什么?

虽然算法深深嵌入我们每天使用的工具中,但你可以采取一些措施更加意识到它们的影响,甚至进行自己的个人“审计”,了解它们如何影响你的数字体验。以下是你可以做的事情:

  1. 注意模式:从注意周围的算法如何塑造你的体验开始。你的社交媒体动态显示给你同一类型的帖子吗?你在流媒体服务上的推荐是否仅限于某种类型的内容?如果你觉得有什么不对或者太过重复,那就是算法可能在框定你的迹象。这是你反思和问自己的机会,“我是真的获得了多样化的信息吗?”
  2. 保持怀疑态度: 算法并不完美,有时可能会推广具有偏见或不准确内容。如果某些内容让你感觉不对劲,比如你看到的过于耸人听闻的新闻或误导性广告,请停下来思考为什么会展示给你。进行自己的事实核实,特别是如果某个帖子或建议似乎在强化一个狭隘的观点。相信你的直觉,记住并非所有算法呈现的内容都是基于品质或真相;有时候只是基于如何让你保持参与度。
  3. 控制您的隐私设置:许多平台允许您调整隐私设置,这直接影响算法如何使用您的数据。花点时间审查您经常使用的应用程序和网站上的这些设置。限制您分享的个人数据数量,如果感觉适合您,可以禁用个性化广告或位置跟踪等功能。这有助于减少算法对您的“了解”程度,让您更加掌控您的数据被使用的方式。
  4. 检查算法错误:算法并非无懈可击,即使在看似最聪明的人工智能系统中也会发生错误(在ChatGPT 对笑)。无论是意外的信用评分下降,错误的旅行路线,还是被推荐不适当的事物,都要注意这些错误。如果有什么不对劲的地方,通过联系支持部门、争议决策或寻求第二意见来采取行动。算法是复杂的,但这并不意味着当它们出错时你就束手无策。
  5. 主张算法透明:随着算法变得更加强大,重要的是主张平台公开它们的工作原理。支持那些解释他们的算法如何做出决策或允许用户选择内容如何呈现的公司,比如提供按时间排序的信息流而不是算法式的信息流。您还可以支持倡导更加道德和负责任地使用算法的组织。

通过更加关注算法如何塑造您的在线体验,您可以成为自己的数字审计员。注意模式,质疑决定,并控制您为这些系统提供的输入。虽然您可能无法完全改变算法的工作方式,但您可以保持警惕,并就它们如何影响您的数字生活做出明智的决定。通过这样做,您确保自己不只是被动地消费算法提供的内容,而是主动地策划自己的体验。

结论

算法是我们今天生活在的数字世界中的一个基本部分。它们为社交媒体、在线购物、搜索引擎,甚至像ChatGPT这样的人工智能工具带来了效率和个性化。然而,它们也带来了重大的后果——无论是强化偏见、创建过滤泡沫还是引发隐私问题。

通过更加意识到算法如何影响我们的生活和他们所影响的决定,我们可以更好地遨游数字世界。下次当你浏览信息流、在网上搜索东西或从 Netflix 获得推荐时,请记住背后有一个算法在做决定。了解它是如何工作的以及它可能存在的不足之处有助于我们所有人成为更加聪明、更加了解科技的用户。

参考资料

  1. Gillespie, T. (2018). 互联网的看护者: 平台、内容审查和塑造社交媒体的隐藏决策. 耶鲁大学出版社.

  2. 不拉姆维尼,J.,和格布鲁,T.(2018)。性别影子:商业性别分类中的交叉准确度差异。机器学习研究论文集,81,77-91。
  3. 拉加万,M.,巴罗卡斯,S.,克莱因伯格,J.,和莱维,K.(2020年)。减少算法招聘中的偏见:评估声明和实践。2020年公平、责任和透明度会议论文集。
  4. Diakopoulos, N.(2016).算法决策中的问责制。ACM通讯,59(2), 56-62.
  5. Pariser,E.(2011)。《过滤泡泡:互联网对您隐藏的内容》。企鹅出版社。
  6. Sunstein, C. R. (2017). #共和国:社交媒体时代的分裂民主。普林斯顿大学出版社。

2024-10-22 04:12:22 AI中文站翻译自原文