版本1.1

由波士顿市首席信息官Santiago Garces编制

发布时间:2023年5月18日

适用范围:除波士顿公立学校外的所有城市机构和部门

目的

生成式人工智能是一组相对较新的技术,它利用大数据和一些机器学习(ML)技术根据用户的输入(即提示)生成内容。新内容可以是书面的(如ChatGPT或Bard),也可以是视觉的(例如Dall-E)。这些工具正在迅速发展,提高我们对其实际运作逻辑的理解,以及它们在社会中使用的影响,是人们正在积极研究的主题。这些工具并不是人类意义上的“智能”,相反,它们是非常复杂的模型,可以预测和满足人类提示的语言、文本或视频。由于它们的影响和潜在用途,以及风险和危险,这些指南是波士顿市员工的临时应用资源。

生成式人工智能是一种工具。我们对工具的结果负责。例如,如果自动更正无意中更改了一个单词——更改了我们所写内容的含义,我们仍然要对文本负责。技术使我们的工作成为可能,它不能成为我们判断和责任的借口。

今后应以政策和标准取代这些准则。但我们希望鼓励负责任的实验,我们鼓励你们自己尝试这些工具,以了解它的潜力。创新和技术部将支持活动和研讨会,这些活动和研讨会可以支持有兴趣了解更多这些技术的人员和团队。目前,我们鼓励您观看Innovate.US关于如何在政府中开始使用生成人工智能的视频:

https://bit.ly/InnovateUS-AI

你也可以通过在线表格分享你的经验、想法和担忧:

https://forms.gle/BptUcVhRdnTwHdxJ7

示例用例

这是一些可能有益的用途。其他好的做法和例子见本文末尾。

1、撰写一个备忘录。在政府日常工作中我们经常要写一些简短的文件,提出一个论点,说明为什么要采取一项政策或做出一项决定。比如尝试用ChatGPT、Bard和其他生成性文本工具:

取消设置

给首席创新官写一份备忘录,说明在市政府中使用生成式人工智能的潜在好处。

2、撰写一份岗位描述。生成式人工智能可以帮我们生成岗位描述,将类似岗位描述的部分进行汇总和分类,并给一个非常好的总结。比如可以试试ChatGPT、Bard和其他生成性文本工具:

取消设置

给一位大城市的首席信息官写一份岗位描述

原则

授权

  • 人工智能的使用应该支持我们的劳动力工作,为我们的居民提供更好、更安全,更高效和公平的服务和产品。

  • 我们依赖并信任我们的公共部门专业人员,在得到正确的工具和指导的情况下做正确的事情。你需要运用你的判断来确保我们从这些工具中获得好处,同时避免对城市及其选民产生负面影响。

包容与尊重

  • 人工智能的使用和发展应支持修复对少数种族和族裔、所有性别和性取向的人、所有年龄段的人、残疾人和其他人造成的损害的工作的发展。我们的工作应该提升这些社区的发展质量,并将他们与繁荣所需的资源更有效地联系起来。

  • 我们所做的一切,无论工具如何,都是城市和我们自己的写照。我们是公众的管理者,我们将尊重和负责任地使用工具。

透明度和问责制

  • 我们拥抱技术和社区的可能性。我们承认,我们没有所有的答案,也无法预见所有的后果。但当我们采取透明的行动时,我们就建立了信任,并获得了集体学习的能力。

  • 我们也承认,实验本身可能会产生成本和影响,包括电力使用和温室气体排放。有目的地对这些影响负责是很重要的。

创新与风险管理

  • 我们知道,技术的使用是有价值的,特别是生成人工智能这样的新技术,但也有风险,其中一些风险不会很明显或事先就被完全了解。

  • 我们信奉负责任的实验文化,在这种文化中,我们对新工具的使用保持控制和理解。同时为我们的公共服务开发新的用途,以提高效率、愉悦感、公民对话或其他成果。

隐私和安全

  • 我们使用的每一种技术工具都会影响我们整个环境的安全,以及我们选民的隐私和数字权利。

公共目的

  • 这些新工具中最著名的是为商业目的而开发的。虽然它们可以适应公共部门专业人员以任务为导向的工作,但重要的是要新工具的应用应以公共服务为核心。

指导方针

事实核查和审查人工智能生成的所有内容,特别是如果它将用于公共沟通或决策:

  • 为什么:虽然GenerativeAI可以快速生成清晰的文本内容,但信息和内容可能不准确、过时或只是虚构的。您有责任通过独立研究人工智能的声明来验证信息的准确性。

  • 要查找的内容:

    · 不准确的信息,包括事件或事实的链接和参考。

    · 位置或信息上的偏差。我们希望确保弱势群体不会受到这些技术的伤害。想想生成式内容如何描绘或影响少数种族和族裔、女性、非二元性、残疾人或其他人。

披露您已使用人工智能生成内容。你还应该包括你使用的模型的版本和类型(如OpenAI的GPT3.5与谷歌的Bard)。您应该在脚注中引用您使用生成AI的事实:

  • 为什么:即使你很少使用人工智能,披露也会通过透明度建立信任,这可能会帮助其他人发现错误。

  • 建议:记录您如何使用该模型、使用的提示等。这可能有助于您和您的同事更好地了解如何更好、更安全地使用这些技术。

  • 示例信贷额度:“此描述由ChatGPT3.5生成,由SantiagoGarces编辑”

  • 示例信贷额度:“本文使用谷歌Bard进行了总结”

不要在提示中共享敏感或私人信息

  • 为什么:包括生成人工智能中使用的提示在内的数据可能会被为这些系统提供动力的公司使用。任何信息,包括我们的居民、其他公务员等的个人身份信息,都可能无意中与他人共享。基本上,如果你不愿意与其他人分享,或者想把提示放在公共场所,请避免分享提示中的信息。如果您的应用程序要求敏感信息与生成式程序一起使用AI,请联系DoIT,以便我们可以帮助您提供对企业安全资源的访问权限。

更多示例、注意事项

以下是一些对城市用途特别有用的用途建议。通过鼓励负责任的实验,我们希望扩大潜在用途,同时将风险降至最低。

起草文件或信函:

生成人工智能提供了一个很好的机会来提升备忘录、信件、工作描述等撰写效率。请注意,在为该上下文创建ChatGPT提示时,它可以考虑包括任何特定的格式偏好,如文章、要点、大纲或对话。此外,您可以要求在回复中使用特定的关键词或短语,或包含或避免使用的技术术语。这将有助于ChatGPT为您的请求提供更量身定制、更高效的响应。

  • 示例:生成在波士顿市使用ChatGPT的指南。

  • 示例:写一封信,请求在下一届预算会议上支持为数字股权倡议提供资金。

  • 示例:您可以要求ChatGPT生成表示提示中指定的观点的字母。这可以让你从不同的角度理解一个问题。

  • 示例:您可以请求Generative AI帮助您编写更有效的提示版本。你可以说“帮我写一个更好的提示[插入提示的初始目标]”。

可以:

1. 在提示中尽量具体。如果你提供更多的上下文,答案就会变得更加相关。

2. 编辑并审阅内容。无论内容是如何编写的,您和纽约市政府都将对其在公众中的使用承担责任。

不能:

1. 不要在提示中包含机密信息。

2. 不要依赖生成式人工智能来提供准确的答案。

3. 不要使用生成式人工智能来创建有关敏感话题的交流。例如,一家著名机构因使用生成式人工智能撰写有关枪击事件的新闻稿而受到批评。

简明语言的绘图内容

生成式人工智能可以帮助你写出更清晰、更简单的语言。您可以使用提示来指示文本的阅读水平或读者。

  • 例如:使用ChatGPT或Bard为一名小学学生编写《美国独立宣言》的版本。

  • 例如:使用AISEO、Wordtune或其他工具来修改句子。这些工具类似于词库,但适用于句子,通常允许您根据句子或受众的长度进行优化。

可以:

1. 如果您有特定的受众,请在提示中指定。

2. 尝试不同的提示,或者请求同一句话的不同版本,直到你找到最有效的提示。

3. 你可以通过可读性应用程序传递文本的输出,该应用程序可以识别具有挑战性的句子,以及文本的阅读水平。

不能:

1. 不要在提示中包含机密信息。

2. 检查文本内容,确保语言具有包容性和尊重性。模型可能使用定期出现的语言或模式,但这可能会排除一些人。例如,一个模型可能会建议:“亲爱的先生/女士”不包括非二进制人,可以用“亲爱的同事”或“亲爱的邻居”代替。

其他语言的绘图内容

人工智能可以帮助你起草另一种语言的通信。关于ChatGPT和其他模型可以在多大程度上使用其他语言,目前还没有很好的记录,但用户报告称,ChatGPT有50多种语言可用,其中包括一些美国本土语言。

  • 示例:使用ChatGPT将这些指南翻译成西班牙语和法语,只需询问“将[您的文本]翻译成西班牙语或法语。”

  • 示例:你可以问生成式人工智能,一些文本是用什么语言写的,只需问“[原始语言]是用什么样的语言写的?”

可以:

1. 尝试不同的语言。ChatGPT、Bard和其他模型使用来自多种语言的文本进行训练。ChatGPT告诉我,它在克丘亚语中不说克丘亚!

2. 你也可以要求生成式人工智能用其他语言执行与本文档中类似的任务,例如总结文本等。

不能:

1. 不要在提示中包含机密信息。

2. 在咨询精通该语言的人之前,不要使用你不懂的语言生成的内容。您仍然需要检查准确性、偏差等。

3. 用其他语言生成的语言可能会让说不同地区方言的人感到困惑。不要以为某些文本会被所有发言者轻易理解。使用提示获取区域性的习惯性措词。

摘要文本

生成式人工智能在将较长的文本片段汇总为摘要方面做得很好。如果你有几页想浓缩成几个要点,或者你一直在努力将一长串笔记转换成一段话,这些工具可能会非常有用。

  • 示例:复制会议笔记以生成会议的简短摘要。

  • 示例:总结公民对参与的回应。

  • 示例:为一份5页的报告写一段摘要。

  • 例如:使用Fathom、Wudpicker或GoogleHangouts中的转录工具将音频转录成文本。然后,你可以使用生成人工智能对文本进行进一步的总结。这些总结包含在其中一些工具中。

不能:

1. 不要在提示中包含机密信息:确保已从笔记或其他输入中删除机密信息。

2. 如果你计划根据摘要做出决定,你应该阅读整个文档,以确保你没有错过或错过原始文档的特征。

3. 请注意,生成的摘要可能存在偏见,因为它往往会呈现用于训练模型的数据中更频繁的语言。您可以使用对提示的更改,通过建议结果包含边缘化群体的观点来增强结果的合理性。你最好去与这些社区中的一些人接触,更好地了解他们对生成的文本的看法。

音频编码/编程概述

生成式人工智能非常擅长生成代码片段,甚至可以帮助您构建更复杂的代码组件。

  • 示例:用Python编写代码,将PDF中的表提取到Pandas数据帧中。

  • 这可以使技术含量较低的人,包括实习生和学生工,有可能从事技术项目。

可以:

1. 探索新的语言和库,但在使用之前,您应该理解代码并阅读相关组件的文档。

2. 你可能需要调整参数和你的环境,以使人工智能模型的建议发挥作用。生成人工智能可以帮助你开始,但通常你必须在代码工作之前进行编辑。

不能:

1. 不要在提示中包含机密信息。与开发最佳实践一样:不要在代码或提示中包含密码机密密钥或其他专有信息。

2. 在生产中使用代码之前,您应该了解代码在做什么。

3. 您应该了解新库和依赖项的使用,并熟悉使用语言或库时的漏洞和其他安全注意事项。

图像、音频和视频

生成型人工智能可以根据提示生成图像、音频和视频。这可以支持创建有吸引力或有见地的沟通资源。

  • 例如:制作一张中世纪风格的居民连接wif的图像,为数字股权运动创造有吸引力的抵押品。

  • 示例:通过提供视频脚本,创建一个培训视频,向居民介绍如何安排大件物品的提取。

  • 例如:写一首顺口溜或歌曲,提醒他们改用波士顿社区选择电力公司的100%可再生能源。

可以:

1. 视觉、音频和视频交流可以成为与他人交流和传递信息的强大工具。生成式人工智能可以让你在艺术技能之外使用这些工具。

2. 使用生成式人工智能作为一种工具来创建草稿或模型,使您能够更有效地与平面设计师、摄像师和其他创意工作者进行沟通。

3. 在发布或使用图像、音频或视频之前,请联系您所在部门或机构的公共信息官员。他们在无障碍、品牌等方面拥有最佳实践方面的专业知识。

4. 与内阁成员或代表可能被本内容引用或影响的团体的社区组织接触。以尊重的方式获得他们的观点,可以帮助你识别内容何时可能有害、歧视或误解。

不能:

1. 不要在提示中包含机密信息:确保已从笔记或其他输入中删除机密信息。一些机密信息可能包括:人们的脸、声音、身份证明、车牌等。特别是那些没有提供同意协议书的人。

2. 确保生成人工智能的输出不会冒犯或伤害人们,特别是易受伤害的弱势居民,包括种族和种族群体、不同性别的个人和其他人。

3. 确保任何内容都符合城市的品牌指南。

参考资料

你可以联系创新与技术部[doit@boston.gov]了解更多关于生成人工智能的信息。

你也可以联系市长艺术和文化办公室[arts@boston.gov]或市长新城市力学办公室[newurbanmechanics@boston.gov]如果你想讨论生成人工智能对艺术和社会的影响的重要问题。

以下资源包括外部链接。我们不赞同这些资源中的任何一种。

Reddit, ChatGPT页面:https://wwwReddit.com/r/ChatGPT/

关于生成语言模型背后的数学原理的一个很好的解释:

Stephen Wolfram(2023)“What Is ChatGPT Doing…and Why Does It Work?”,Stephen WolframWritings.

writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work.

微软的AI原理:

https://www.microsoft.com/en-us/ai/responsible-ai?activetab=pivot1:primaryr6

谷歌的人工智能原理:

https://ai.google/principles/

NIST AI风险框架:

https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.100-1.pdf

对大型语言模型的批判性分析(预测了我们现在所经历的许多危害/风险的主要论文)

https://dl.acm.org/doi/10.1145/3442188.3445922

感 谢

这些准则的制定得益于学术界、社区和波士顿市团队成员的贡献。

特别感谢东北大学伯恩斯社会变革中心主任Beth Noveck、东北大学公民人工智能实验室主任Saiph Savage、麻省理工学院数据+女权主义实验室主任Catherine D"Ignazio、东北大学实践教授Kimberly Lucas、哈佛商学院教授Mitch Weiss、Alejandro Jimenez Jaramillo、市长新城市机制办公室的Michael Evans、创新和技术部的项目经理Jerry Kelley、创新和技术部的办公室主任Kerry Jordan以及波士顿市政府的代表。创新和技术部的项目经理Jerry Kelley,创新和技术部的办公室主任Kerry Jordan和技术部办公室主任Kerry Jordan。

原文来源:(https://www.boston.gov/sites/default/files/file/2023/05/Guidelines-for-Using-Generative-AI-2023.pdf)

声明:本文来自数旗智酷,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。