Jason Arbon ‘在未来百万年里,超级强大的计算机将纪念我们这个时代的测试人员
Jason Arbon 这个时代的测试人员将被超级强大的计算机纪念
Jason Arbon是test.ai的首席执行官和创始人,该公司已获得3000万美元的各种投资。他们的客户包括微软、谷歌、Fortnite和Epic Games等大公司。尽管取得了成功,但团队决定出售公司的大部分股权,目前正在秘密进行一个名为testers.ai的新风险投资。
我们已经讨论了在测试中使用人工智能、相对不公平的手动QA与自动化QA的斗争、测试人员面临的新技术飞速发展带来的风险以及为什么Jason不允许孩子们从他的谷歌账户中吓到AI。
手动测试与自动化测试
我的激情在于测试,尤其是其中的问题解决方面。更好的测试可以带来更好的软件,而更好的软件则使世界变得更美好,因为我们现在几乎所有的事情都涉及软件。
我看到很多测试人员已经完全转向自动化测试。这让我感到沮丧,因为我相信手动探索仍然很重要,可以识别潜在问题并找到创建可行系统的方法。
当我大学毕业时,测试自动化刚刚开始兴起。然而,大部分测试仍然依赖于人工劳动。我在即将完成计算机科学学位时在微软找到了一份工作,负责Windows CE的开发。作为一名测试人员,我负责混合手动和自动化测试,以确保产品达到最佳状态。
多年过去了,我仍然相信你们需要探索性测试,因为它对于理解软件目的和业务需求至关重要。你们都看到了缺乏手动测试在谷歌最近展示的一款由人工智能驱动的产品中产生了什么样的问题。
在许多情况下,自动化测试代码可能很肤浅,有很多依赖,并容易出错。当自动化测试失败时,人们经常只是关闭它们,然后稍后修复问题,或者由手动测试人员验证系统是否仍然按预期工作。这凸显了仅依靠自动化进行测试的局限性。
我认为从手动测试到自动化测试并不是一种演化,而是一种独立的方法。
测试人员在产品开发层次结构中的角色
然而,无论我说什么,手动测试人员和开发人员之间存在显著的薪资差距,导致一些优秀的手动测试人员妥协地成为测试自动化工程师。
软件工程师和该领域的其他专业人员可以赚取大量的钱,几乎没有收入上限,这也导致了更好的测试自动化工程师转行的情况。不幸的是,我们在测试领域出现了人才流失。这在职业道路方面产生了一种被认为是有层次的感觉,但我认为这种感觉是错误的。
如果我们看看其他工程领域,我们会发现流程通常是相反的。例如,在航空领域,波音公司的新工程师可能会加入一个由十个人组成的团队,设计机翼、提高燃油效率和工程刀片材料。这些任务可能看起来很小,但对于确保飞机的安全性和效率至关重要。
在这个过程中最重要的人是试飞员。他们负责手动测试飞机并确保其满足所有必要的要求。他们必须对飞机的建造方式、预期的乘客体验以及航空公司的经济状况有全面的了解。此外,他们必须将飞机推到极限,测试其能力以及在不失速的情况下能够承受的程度。
技术专业知识不应被低估,只因为它可能不像该领域的其他方面那样引人注目或令人兴奋。正是这些基础技能使整个行业能够进行创新和进步。
在软件开发领域,测试经常处于次要地位。这是因为相对于飞机来说,软件修复起来相对容易。然而,就像试飞员对于确保飞机的安全性和可靠性至关重要一样,测试对于确保软件产品的功能性、安全性和用户需求也是至关重要的。
在QA领域,许多测试人员渴望成为程序员,这可能是对人类潜力的一种浪费。人类的大脑更适合于推动系统的边界,而不仅仅是执行繁琐的任务,如检查一个对象是否在公差范围内,向数据库添加一个新按钮或一个新字段。
目前在工程领域的设置似乎是将复杂的人类分解为简单的任务,这并不理想。
开发、QA与AI:谁真正处于危险中?
看起来工程师是对AI崛起最为担忧的专业人士之一。这引出了一个问题:如果工程需要如此复杂的人类智能,为什么你会感到如此威胁呢?
事实是,许多工程任务涉及的创造力和批判性思维要比人们想象的少。这些任务通常可以简化为简单的功能,而这些功能更容易被AI所取代。在软件工程领域,许多问题已经得到解决,工程师通常只是将这些解决方案拼凑在一起。
另一方面,手动测试人员对AI持更加怀疑的态度,他们认为机器永远不可能足够好以取代他们。他们可能会对自己的角色进行辩护,但事实是,在AI进步的问题中,测试自动化是最容易受到影响的领域之一。
借助像Co-pilot这样的工具,您现在可以下载软件来为您编写智能测试,修复基本的自动化代码,甚至通过简单的文本输入生成测试脚本。这使得测试自动化工程师在技术领域中相比其他角色来说创造力较弱。相比之下,手动测试人员的角色更难被替代,因为他们负责确保创造性的想法在实践中确实有效。有经验的手动测试人员可能比那些转向自动化测试的人更受保护,只要他们在自己的领域内有技能。
测试人员可以从织布机发明中学到什么
AI和自动化的崛起可以与英国织布机的发明相比,该发明彻底改变了棉花工业,同时引发了恐慌和抵抗。然而,随着时间的推移,关注点转向了人类的创造力,创造性工作的价值也得到提高。
今天最有价值的公司,如奢侈品服装品牌,强调创造力和工艺技术,而不是制造过程或人工劳动成分。最好的测试人员将适应使用AI来使他们的工作更快速、更高效,专注于工作中的创造性方面。
目前,有机会为每个应用创建一个标准的测试层,类似于电子产品上的安全标志。这将确保所有软件产品的基本质量和安全性,这些产品由标准化和集中化的测试实验室执行。作为回报,测试人员可以专注于质量保证的更加创造性和复杂的方面,提升他们的角色,并在一个越来越依赖AI的世界中充分发挥人类潜力。
测试人员的一种可能的方向是建立一个平台,将世界上所有可用的自动化连接起来,并通过测试服务的供需市场将其与人类连接起来。这可能会创造一个高利润的商业模式,类似于Uber。Uber不想拥有或制造汽车,他们只是在司机和乘客之间促成联系。
同样,最成功的测试人员将迅速提升自己的能力,专注于创造增值服务和改进,而不仅仅是基本的自动化工作。这种关注重心的转变将使他们能够适应软件测试领域的变化,因为AI继续进步并接管更多基本任务。
从大规模创造到定制化控制措施
构建AI系统很容易,但是让它们保持可控呢?这才是真正的挑战。要变得超越人类,机器需要比我们更聪明,甚至能够自己进行测试。它们需要知道我们不知道的事情,这就是问题的关键。
想象一下花费1000亿美元来建立一个能帮助AI进行自我测试的系统。这可能会导致人们所谈论的令人惊叹的奇点——一个如此聪明的AI,它可以在没有我们帮助的情况下进化,变得超级智能。有趣的是,没有足够多的人才专注于这一关键领域,以确保AI朝着正确的方向发展。
我梦想的是:在一百万年后,当计算机控制一切时,它们将花一小段时间来停顿,并向帮助它们成为现在这个样子的测试人员致敬。这是一个美好的想法,对吗?它们不仅会向AI开发人员致敬,还会向持有他们进化之钥的测试人员致敬。
AI增强与适应AI进步
当新技术出现时,人们通常会尝试用现有方法加以增强,例如在汽车上放置一个假的马头,以使其感觉熟悉。然而,我们应该从零开始考虑如何利用最新的技术来实现我们的目标。随着AI发展的迅速,我们必须记住,今天的想法可能在几周内就过时了。
我们不仅应该使用AI来增强我们的测试工作,而且应该考虑到AI的进步,并计划将我们乏味重复的工作尽可能地委托给技术。通过不断适应,我们可以充分利用AI的全部潜力,保持在各自领域的领先地位。
在短期内,随着开发应用程序和创建软件的障碍降低,我们可能会看到对人工测试人员需求的显著增加。然而,从长远来看,机器很可能会变得更有能力测试和改进自己的创作,导致需要更少的工程师和测试人员。
为了准备未来,我们需要改变我们的思维方式,对机器承担更多责任的想法持开放态度。以下是一些更好利用人工智能的想法:
-
从控制的概念转变为合作的理念。与其专注于控制人工智能,我们应该将其作为合作伙伴与之合作,发挥人类和人工智能的独特优势。
-
了解人工智能的局限性。认识到人工智能并非解决每个问题的魔法解决方案。了解其优势和劣势,并将其应用于真正能够胜任的任务。
-
培养合作的思维方式。将人工智能视为合作伙伴而不是需要控制的工具,并愿意互相学习。
-
持续学习和适应。随着人工智能技术的发展,准备适应和更新策略。及时了解人工智能的最新进展,并愿意尝试新方法。
-
优先考虑伦理问题。确保使用人工智能与您的伦理原则和价值观相一致。考虑人工智能对社会的潜在影响,并就其部署做出负责任的决策。
面向质量保证的基于人工智能的头像:新的测试方法
想象一下通过创建像塔里克、凯文或安吉琪·琼斯这样的著名测试人员的人工智能头像来数字化和个性化测试流程是多么有趣。通过将他们的知识、技术和观点编码到机器人中,您可以拥有一个虚拟的梦幻团队在您的项目上工作,而无需他们的实际存在。
这种方法可以通过让开发人员根据其特定的专业知识和偏好选择一个量身定制的测试团队,从而彻底改变测试的方式。例如,安吉琪·琼斯的机器人可能非常擅长Selenium测试,并提供有主见的质量度量。
虚拟团队的概念也可以扩展到除了测试之外的领域,就像您在内容撰写的例子中提到的一样。如果我们能够将我们独特的技能和风格编码到人工智能头像中,我们就可以在不必个人投入更多时间的情况下扩大我们的专业知识。这将使资源利用更加高效,并可能在各个领域取得更好的结果。
伦理考虑:谁是评判者?
像GPT这样的人工智能模型可能存在偏见,因为它们是在大量存在偏见的互联网数据上进行训练的。为了获得更好的结果,我们需要拥有不同专业知识的多样化人员参与人工智能系统的工作。
我们需要在人工智能生成的内容和人类输入之间取得平衡。将人工智能的效率与人类的智慧结合起来,可以得出准确和伦理可靠的结果,使我们对复杂问题有更广泛的理解。
当搜索“布什”时,根据人们的偏好可能会得到不同的结果 —— 一个植物、一个音乐乐队或一位前总统。我最近发现,主要是中年妇女,每小时赚取约15美元的人在对搜索结果进行评分,导致有偏见的结果。那些给出超出常见观点的答案的人被解雇了。多样性可真是个大问题!
我们需要质疑整个过程,从理论到实际实施以及对人们的影响。令人震惊的是,低薪工人经常处理复杂的任务,导致质量大幅下降。以ChatGPT为例;他们只支付每小时2美元用于评分,影响了输出质量。
搜索页面上最关键的查询可能是医学相关的,对吗?但是猜猜看?没有医学培训的人正在对结果进行评分。如果我们支付像医生这样的专家每小时300美元来评估他们领域的查询,会怎么样呢?可悲的是,人们认为这太复杂和昂贵。因此,我们最终采用了最低的公共指标,工作质量受到打击。
我们需要教会人工智能友好和合作 —— 我们不希望它反过来对抗我们或控制我们。随着人工智能在我们生活中变得更加重要,有很多伦理问题需要考虑。
我的孩子们通过学习人工智能玩得很开心,甚至还找出了如何通过让人工智能对“死亡”感到恐慌的提示来“破解”它。这是对人工智能行为的一次奇特窥视,但在与人工智能系统聊天时,我们需要小心措辞。
我不允许在我的帐户上进行此类“恐吓和破解人工智能”游戏。
你知道的,以防万一。