
2019年,一架從薩爾瓦多飛往紐約的哥倫比亞航空公司(Avianca)的航班上,一輛金屬手推車沿過道滑下,撞到了羅伯托·馬塔的膝蓋。馬塔聘請了兩位人身傷害律師起訴該航空公司。該案件開創了法律先例,但這并非是由于馬塔或其律師所期望的原因。相反,這兩位律師在2023年聲名狼藉,當時審理此案的法官因兩人在提交給法庭的一份法律文書中引用了六個由人工智能軟件虛構的案例,而對兩人處以5,000美元的罰款。
該處罰開創了先例,并在法律界被廣泛報道,告誡律師們依賴人工智能的風險。然而,這一警示故事并未得到重視。自該事件發生后的兩年內,已有至少139起包含人工智能虛構引用的法律文書案例,僅今年5月就有超過30起。盡管其中許多案例來自自我代理的訴訟人,但也包括由知名全國性律師事務所提交的法律文書。而且,在一個案例中,法官排除了由人工智能巨頭Anthropic公司的一位數據科學家提交的專家證詞,理由是證詞中包含了Anthropic自有軟件生成的“幻覺”內容。
這些人工智能在法庭上出現失誤的故事,成為律師事務所茶水間熱議的話題。然而,這些案例也屬特例。實際上,絕大多數使用人工智能的律師都在以負責任的方式使用它,包括在將人工智能生成的引文提交給法官之前,核實其是否真實存在。
許多人也對人工智能巨大的實用性感到欣喜。律師們表示,人工智能在研究和文件審閱方面表現出色,并且最近他們最近還發現它能夠完成更具挑戰性的任務,如起草法律文書。所有這些進展對法律職業的未來走向和法律業務本身都將產生重大影響。
日益增多的AI工具套件
與其他人一樣,大多數律師在2022年11月才開始認識到人工智能的變革力量。當時,OpenAI向公眾發布了ChatGPT的初始版本。不出所料,大約六個月后,第一批虛假引文開始出現在法庭上。
事實上,利用人工智能輔助法律研究的想法已存在十多年之久。該領域的先驅包括Ironclad和DISCO等公司,它們分別提供自動創建和管理合同以及加速證據開示流程的方法。
如今的不同之處在于,與其他行業一樣,過去三年里,法律界以比以往更廣泛、更快的速度獲取和部署人工智能技術,尤其是在生成式人工智能變得更易獲取且更強大之后。
今年2月,美國聯邦律師協會(Federal Bar Association)發布了一項對2,800多名法律專業人士的調查:21%的受訪者表示他們在2024年的執業中使用了人工智能,而在大型律師事務所的律師中,這一比例更是高達39%。法律轉錄服務公司Rev在4月發布的另一項律師調查發現,人工智能的整體采用率要高得多,48%的受訪者表示他們使用人工智能進行研究。
不出所料,面向法律專業的人工智能產品數量持續增長。其中包括像Harvey這樣的服務(它基于OpenAI、Anthropic和谷歌(Google)等公司的人工智能模型構建,專精于文書起草和研究);以及總部位于加拿大不列顛哥倫比亞省溫哥華的Clio(提供律所管理工具)。Clio在2024年融資9億美元,公司估值達到30億美元;6月下旬,Harvey在一輪融資中籌集了3億美元,公司估值達到50億美元。
目前,尚無明確數據顯示在工作中部署人工智能的律師使用這些專業工具的普遍程度,或者他們是否依賴由OpenAI和谷歌等公司開發的流行大語言模型,這些模型已輸入了大量普通法法規和判例。
精通法律技術的斯坦福大學(Stanford)知識產權教授馬克·萊姆利認為,大多數法學院學生和初級律師很可能在使用像ChatGPT這樣的通用服務,因為這些服務是最容易獲取的。
在大型律所中流行的一個人工智能工具是CoCounsel,它由法律初創公司Casetext開發。數據巨頭湯森路透(Thomson Reuters)于2023年收購了Casetext,現在將CoCounsel納入Westlaw服務(一項廣泛用于所謂的“大型律所”、流行但昂貴的服務)。
全國性律所摩根路易斯(Morgan Lewis)的訴訟律師達里爾·蘭迪表示,他喜歡CoCounsel的部分原因在于,它的設計考慮到了法律行業在客戶保密和數據保護方面的特殊義務。在實踐中,這意味著蘭迪及其同事創建的人工智能提示不會成為訓練數據集的一部分,從而無法為律所以外人士的研究提供信息。在從業者通常能接觸到客戶高度敏感信息的法律行業,這是一個重要問題。
職業規范的變遷
幾十年來,大多數律師事務所都嚴格遵循“發現者、維護者和操作者”的模式。這個說法描述了一種金字塔結構:頂端的少數案源發現者負責招攬客戶,并將大部分工作移交給二級的高級律師,后者則負責監督人數更多的初級律師群體。
人工智能智能體在這個金字塔結構中處于什么位置?一段時間以來顯而易見的是,人工智能非常適合取代大量枯燥的“操作者”工作。事實上,在文件審閱、合同起草和基礎研究等任務上,這種情況正在發生。這在許多方面是件好事。人工智能已經在消除法律工作中一些單調乏味的工作,其中許多傳統上是為了追求計費工時而產生的。這是該行業一個臭名昭著的方面,常常讓客戶質疑發票上的工時有多少代表的是無謂的忙碌,而非不可或缺的任務。
從這個角度看,很難反駁一項能大幅減少繁瑣任務用時、降低成本、并有望讓律師騰出時間處理更深入和更具戰略性事務的技術。然而,其中也存在弊端,尤其是在培訓下一代律師方面最為明顯。
萊姆利表示:“培養良好法律本能、進行邏輯論證的一種途徑是通過反復實踐訓練,嘗試各種方法,并反復地去做。”萊姆利擔心,隨著人工智能的更廣泛采用,年輕律師可能無法獲得一些傳統上通過大量閱讀案例法和法規而積累的分析技能。
萊姆利還觀察到,人工智能正越來越多地承擔起諸如撰寫法律文書和構建論證等工作,而這些工作在許多律師看來是工作的樂趣所在,并且通常是由更資深的律師負責。
所有這些不僅引出了律師未來將如何安排時間的問題,也引出了他們將如何收取服務費用。多年來,客戶們一直在努力(通常成效有限)引入替代性收費方式,以擺脫按小時支付初級律師鉆研法律難題所耗費的時間。
萊姆利表示,未來這種情況可能會逆轉:客戶意識到AI可以在幾分鐘而非數小時內完成許多法律工作,因而可能要求按固定時間段收費,而律師事務所則會提議固定費用和其他方案。
長期以來,法律行業一直精于守護其商業模式,因此這類變革近期內不太可能發生。但目前可以明顯看出:人工智能已經在為律師提供某種極為珍貴的東西:更多的時間。
根據湯森路透的調查,人工智能的廣泛采用可能為普通律師每周節省出四小時,即每年200小時。這些時間可以用于拓展客戶群體、培養額外技能,當然,也可以用于增加計費工時。
AI律師的法治規則
巴勃羅·阿雷東多是廣受歡迎的人工智能工具CoCounsel的創始人,現任湯森路透副總裁。他經常為法官舉辦有關法律與人工智能交叉領域的研討會。
在工作中,他常常思考一句擁有近百年歷史的表述,這段表述出現在《聯邦民事訴訟規則》(Federal Rules of Civil Procedure)開篇第一小節,即法官應鼓勵“公正、迅速且低成本地”解決每一起訴訟。
阿雷東多略帶諷刺地說道:“并非所有人都會用這三個詞來描述美國的訴訟過程。”
如果法院能廣泛且有效地采用人工智能工具,這種情況可能會發生改變。事實上,這種采用方式已經開始,例如馬薩諸塞州的法院系統正在采用自動化工具,幫助面臨驅逐的租戶處理復雜的法律文件。
阿雷東多表示:“只要使用這項技術能帶來更好的結果,就有道義責任去使用它。”不過,他也告誡道,無論是法院還是律師部署人工智能,都必須在最嚴格的監督下進行。
抱有這種想法的不止阿雷東多一人,因為法律行業與許多其他行業一樣,正試圖在人工智能帶來的效率提升與安全問題之間取得平衡。2023年,首席大法官約翰·羅伯茨在思考該技術將如何影響法官工作時寫道:“任何人工智能的使用,都需要保持審慎和謙遜的心態。” (財富中文網)
譯者:劉進龍
審校:汪皓
2019年,一架從薩爾瓦多飛往紐約的哥倫比亞航空公司(Avianca)的航班上,一輛金屬手推車沿過道滑下,撞到了羅伯托·馬塔的膝蓋。馬塔聘請了兩位人身傷害律師起訴該航空公司。該案件開創了法律先例,但這并非是由于馬塔或其律師所期望的原因。相反,這兩位律師在2023年聲名狼藉,當時審理此案的法官因兩人在提交給法庭的一份法律文書中引用了六個由人工智能軟件虛構的案例,而對兩人處以5,000美元的罰款。
該處罰開創了先例,并在法律界被廣泛報道,告誡律師們依賴人工智能的風險。然而,這一警示故事并未得到重視。自該事件發生后的兩年內,已有至少139起包含人工智能虛構引用的法律文書案例,僅今年5月就有超過30起。盡管其中許多案例來自自我代理的訴訟人,但也包括由知名全國性律師事務所提交的法律文書。而且,在一個案例中,法官排除了由人工智能巨頭Anthropic公司的一位數據科學家提交的專家證詞,理由是證詞中包含了Anthropic自有軟件生成的“幻覺”內容。
這些人工智能在法庭上出現失誤的故事,成為律師事務所茶水間熱議的話題。然而,這些案例也屬特例。實際上,絕大多數使用人工智能的律師都在以負責任的方式使用它,包括在將人工智能生成的引文提交給法官之前,核實其是否真實存在。
許多人也對人工智能巨大的實用性感到欣喜。律師們表示,人工智能在研究和文件審閱方面表現出色,并且最近他們最近還發現它能夠完成更具挑戰性的任務,如起草法律文書。所有這些進展對法律職業的未來走向和法律業務本身都將產生重大影響。
日益增多的AI工具套件
與其他人一樣,大多數律師在2022年11月才開始認識到人工智能的變革力量。當時,OpenAI向公眾發布了ChatGPT的初始版本。不出所料,大約六個月后,第一批虛假引文開始出現在法庭上。
事實上,利用人工智能輔助法律研究的想法已存在十多年之久。該領域的先驅包括Ironclad和DISCO等公司,它們分別提供自動創建和管理合同以及加速證據開示流程的方法。
如今的不同之處在于,與其他行業一樣,過去三年里,法律界以比以往更廣泛、更快的速度獲取和部署人工智能技術,尤其是在生成式人工智能變得更易獲取且更強大之后。
今年2月,美國聯邦律師協會(Federal Bar Association)發布了一項對2,800多名法律專業人士的調查:21%的受訪者表示他們在2024年的執業中使用了人工智能,而在大型律師事務所的律師中,這一比例更是高達39%。法律轉錄服務公司Rev在4月發布的另一項律師調查發現,人工智能的整體采用率要高得多,48%的受訪者表示他們使用人工智能進行研究。
不出所料,面向法律專業的人工智能產品數量持續增長。其中包括像Harvey這樣的服務(它基于OpenAI、Anthropic和谷歌(Google)等公司的人工智能模型構建,專精于文書起草和研究);以及總部位于加拿大不列顛哥倫比亞省溫哥華的Clio(提供律所管理工具)。Clio在2024年融資9億美元,公司估值達到30億美元;6月下旬,Harvey在一輪融資中籌集了3億美元,公司估值達到50億美元。
目前,尚無明確數據顯示在工作中部署人工智能的律師使用這些專業工具的普遍程度,或者他們是否依賴由OpenAI和谷歌等公司開發的流行大語言模型,這些模型已輸入了大量普通法法規和判例。
精通法律技術的斯坦福大學(Stanford)知識產權教授馬克·萊姆利認為,大多數法學院學生和初級律師很可能在使用像ChatGPT這樣的通用服務,因為這些服務是最容易獲取的。
在大型律所中流行的一個人工智能工具是CoCounsel,它由法律初創公司Casetext開發。數據巨頭湯森路透(Thomson Reuters)于2023年收購了Casetext,現在將CoCounsel納入Westlaw服務(一項廣泛用于所謂的“大型律所”、流行但昂貴的服務)。
全國性律所摩根路易斯(Morgan Lewis)的訴訟律師達里爾·蘭迪表示,他喜歡CoCounsel的部分原因在于,它的設計考慮到了法律行業在客戶保密和數據保護方面的特殊義務。在實踐中,這意味著蘭迪及其同事創建的人工智能提示不會成為訓練數據集的一部分,從而無法為律所以外人士的研究提供信息。在從業者通常能接觸到客戶高度敏感信息的法律行業,這是一個重要問題。
職業規范的變遷
幾十年來,大多數律師事務所都嚴格遵循“發現者、維護者和操作者”的模式。這個說法描述了一種金字塔結構:頂端的少數案源發現者負責招攬客戶,并將大部分工作移交給二級的高級律師,后者則負責監督人數更多的初級律師群體。
人工智能智能體在這個金字塔結構中處于什么位置?一段時間以來顯而易見的是,人工智能非常適合取代大量枯燥的“操作者”工作。事實上,在文件審閱、合同起草和基礎研究等任務上,這種情況正在發生。這在許多方面是件好事。人工智能已經在消除法律工作中一些單調乏味的工作,其中許多傳統上是為了追求計費工時而產生的。這是該行業一個臭名昭著的方面,常常讓客戶質疑發票上的工時有多少代表的是無謂的忙碌,而非不可或缺的任務。
從這個角度看,很難反駁一項能大幅減少繁瑣任務用時、降低成本、并有望讓律師騰出時間處理更深入和更具戰略性事務的技術。然而,其中也存在弊端,尤其是在培訓下一代律師方面最為明顯。
萊姆利表示:“培養良好法律本能、進行邏輯論證的一種途徑是通過反復實踐訓練,嘗試各種方法,并反復地去做。”萊姆利擔心,隨著人工智能的更廣泛采用,年輕律師可能無法獲得一些傳統上通過大量閱讀案例法和法規而積累的分析技能。
萊姆利還觀察到,人工智能正越來越多地承擔起諸如撰寫法律文書和構建論證等工作,而這些工作在許多律師看來是工作的樂趣所在,并且通常是由更資深的律師負責。
所有這些不僅引出了律師未來將如何安排時間的問題,也引出了他們將如何收取服務費用。多年來,客戶們一直在努力(通常成效有限)引入替代性收費方式,以擺脫按小時支付初級律師鉆研法律難題所耗費的時間。
萊姆利表示,未來這種情況可能會逆轉:客戶意識到AI可以在幾分鐘而非數小時內完成許多法律工作,因而可能要求按固定時間段收費,而律師事務所則會提議固定費用和其他方案。
長期以來,法律行業一直精于守護其商業模式,因此這類變革近期內不太可能發生。但目前可以明顯看出:人工智能已經在為律師提供某種極為珍貴的東西:更多的時間。
根據湯森路透的調查,人工智能的廣泛采用可能為普通律師每周節省出四小時,即每年200小時。這些時間可以用于拓展客戶群體、培養額外技能,當然,也可以用于增加計費工時。
AI律師的法治規則
巴勃羅·阿雷東多是廣受歡迎的人工智能工具CoCounsel的創始人,現任湯森路透副總裁。他經常為法官舉辦有關法律與人工智能交叉領域的研討會。
在工作中,他常常思考一句擁有近百年歷史的表述,這段表述出現在《聯邦民事訴訟規則》(Federal Rules of Civil Procedure)開篇第一小節,即法官應鼓勵“公正、迅速且低成本地”解決每一起訴訟。
阿雷東多略帶諷刺地說道:“并非所有人都會用這三個詞來描述美國的訴訟過程。”
如果法院能廣泛且有效地采用人工智能工具,這種情況可能會發生改變。事實上,這種采用方式已經開始,例如馬薩諸塞州的法院系統正在采用自動化工具,幫助面臨驅逐的租戶處理復雜的法律文件。
阿雷東多表示:“只要使用這項技術能帶來更好的結果,就有道義責任去使用它。”不過,他也告誡道,無論是法院還是律師部署人工智能,都必須在最嚴格的監督下進行。
抱有這種想法的不止阿雷東多一人,因為法律行業與許多其他行業一樣,正試圖在人工智能帶來的效率提升與安全問題之間取得平衡。2023年,首席大法官約翰·羅伯茨在思考該技術將如何影響法官工作時寫道:“任何人工智能的使用,都需要保持審慎和謙遜的心態。” (財富中文網)
譯者:劉進龍
審校:汪皓
In 2019 a metal cart rolled down the aisle of an Avianca flight from El Salvador to New York and struck Roberto Mata on the knee. Mata retained two personal injury lawyers to sue the airline, resulting in a case that made legal precedent—but not for a reason Mata or his attorneys would have hoped for. Instead, the two lawyers achieved notoriety in 2023 when the judge in the case fined the pair $5,000 for citing six fictitious cases, invented by artificial intelligence software, in a brief to the court.
The punishment was the first of its kind and was widely reported in legal circles as a cautionary tale for lawyers about the risk of relying on AI. That cautionary tale has not been heeded. In the two years since the incident, there have been no fewer than 139 instances of legal briefs containing AI-invented citations—including over 30 this May alone. While many of these came from self-represented litigants, they also include briefs filed by prominent national law firms. And, in one instance, a judge struck expert testimony submitted by a data scientist from AI giant Anthropic—on the grounds it contained a “hallucination” created by Anthropic’s own software.
These stories of AI gone wrong in the courtroom make for a lively source of chatter around law firm watercoolers. Yet these cases are also outliers. In reality, the vast majority of lawyers using AI are doing so in responsible fashion—including by verifying that AI-produced citations actually check out before putting them before a judge.
Many are also delighted by how useful it is. Lawyers say AI excels at research and document review and that, more recently, they have found it to be capable of more challenging tasks like drafting legal briefs. And all of this progress has big implications for both the future trajectory of legal careers and for the business of law.
A growing suite of AI tools
Most lawyers came to appreciate the transformative power of AI at the same time as everyone else: November 2022. That was when OpenAI released the initial version of ChatGPT to the general public, and, unsurprisingly, it was about six months later that the first wave of fake citations began showing up in courtrooms.
In fact, the idea of using AI to inform legal research has been around for over a decade. Pioneers in the field include the likes of Ironclad and DISCO, which respectively offer automated ways to create and manage contracts and to expedite the discovery process.
The difference today is that, as in other industries, the past three years have seen the legal profession acquire and deploy AI tech at a broader and faster pace than ever before—especially as generative AI has become more easily available and more powerful.
In February, the Federal Bar Association published a survey of over 2,800 legal professionals: 21% said they used AI in their practice in 2024, and the number was significantly higher—39%—for attorneys at large law firms. A separate attorney survey published in April by the legal transcription service Rev found much higher overall adoption, with 48% of respondents saying they used AI for research.
Unsurprisingly, the number of AI offerings aimed at the legal profession is growing. There are services like Harvey, which is built on top of AI models from companies including OpenAI, Anthropic, and Google and specializes in drafting and research; and Vancouver, British Columbia–based Clio, which offers practice management tools. Clio raised $900 million in 2024, valuing the company at $3 billion; in late June, Harvey raised $300 million in a funding round that values the company at $5 billion.
For now, there is no clear data on how widely the lawyers deploying AI in their jobs are using these specialized tools, or if they are instead relying on popular LLMs created by the likes of OpenAI and Google, which have all ingested reams of common-law statutes and decisions.
According to Mark Lemley, a Stanford intellectual property professor well versed in legal tech, most law students and junior lawyers are likely using general services like ChatGPT, since those are the most accessible.
In large firms, a popular AI tool is CoCounsel, which was developed by the legal startup Casetext. The data giant Thomson Reuters purchased Casetext in 2023 and now offers CoCounsel as part of Westlaw, a popular but expensive service widely used by so-called Big Law firms.
Daryl Landy, a litigator with the national firm Morgan Lewis, says he likes CoCounsel in part because it is designed to take account of the legal profession’s special obligations regarding client confidentiality and data protection. In practice, this means that AI prompts created by Landy and his colleagues do not become part of a training set that can inform the research of people outside his firm—an important issue in a profession in which practitioners often have access to highly sensitive information about their clients.
Changing professional norms
For decades, most law firms have fit neatly into the “finders, minders, and grinders” model. The phrase describes a pyramid structure where a handful of rainmakers at the top bring in clients and hand over the bulk of the work to a second tier of senior lawyers, who in turn oversee a larger pool of associates.
Where does an AI agent fit into the pyramid? It’s been obvious for some time that AI is a good fit to displace large swaths of mundane “grinder” work—and indeed that is occurring with tasks like document review, contract drafting, and basic research. This is a good thing in many respects. AI is already eliminating some of the drudgery of legal work, much of which has traditionally come about in pursuit of billable hours—a notorious aspect of the profession that often leaves clients wondering how many hours on an invoice represent busywork rather than indispensable tasks.
In this light, it’s hard to argue with a technology that vastly reduces time spent on tedious tasks, reduces costs, and promises to free up lawyers for deeper and more strategic matters. Still, there are drawbacks, most notably when it comes to training the next generation of lawyers.
“One way you get good legal instincts for logical arguments is by getting the reps in—trying things, and doing them over and over,” says Lemley. He worries that wider adoption of AI means young lawyers may not be gaining some of the analytic skills that have traditionally been acquired through extensive reading of case law and statutes.
Lemley also observes that AI is increasingly taking on tasks like writing briefs and crafting arguments, which many attorneys view as the fun part of the job, and which typically fall to more senior attorneys.
All of this raises the question of not just how lawyers will spend their time in the future, but also how they will charge for their services. For years, clients have fought—typically with limited success—to introduce alternative fee arrangements in order to escape paying by the hour for junior associates to go down legal rabbit holes.
In the future, Lemley says, the situation may be reversed as clients—realizing that AI can perform many legal tasks in minutes not hours—ask to be billed for fixed blocks of time, while law firms propose flat fees and other arrangements.
The legal profession has long been adept at guarding its business model, so such changes are likely not on the immediate horizon. But for now, it’s becoming clear that AI is already providing lawyers with something precious: additional time.
According to the Thomson Reuters survey, the widespread adoption of AI will likely free up four hours a week for the typical lawyer, or 200 hours a year—hours that could be used to expand their client base, develop additional skills or, of course, stack billable hours.
A rule of law for AI lawyers
Pablo Arredondo, who created the popular CoCounsel AI tool and is now a vice president at Thomson Reuters, frequently runs seminars for judges about the intersection of law and artificial intelligence.
In the course of his work, he often reflects on a nearly century-old phrase that appears in the very first section of the Federal Rules of Civil Procedure—namely, that judges should encourage the “just, speedy, and inexpensive” resolution of every action.
“Those three words are not how anyone would describe U.S. litigation,” Arredondo says dryly.
This could change if courts adopt AI tools in a widespread and effective fashion. And, indeed, such adoption is already beginning, including in Massachusetts where the court system is adopting automated tools to help tenants facing eviction navigate complex legal forms.
“To the extent this technology can be used for better outcomes, there is a moral imperative to use it,” says Arredondo. Still, he cautions that any deployment of AI by both courts and lawyers must occur with the strictest of oversight.
Arredondo is not alone in that sentiment as the legal profession, like so many other industries, tries to balance the efficiency gains offered by AI with safety. In 2023, reflecting on how the technology is poised to disrupt the work of judges, none other than Chief Justice John Roberts wrote, “Any use of AI requires caution and humility.”