WEBサイトに掲載している文章及び画像の無断での転用や転載はご遠慮ください。
講演内容の書き起こし:アンドリュー・スターリング教授
講演「科学の不定性に向き合う:方法論と政策の可能性」
Presentation“Opening Up Scientific Incertitude: Some wider methodological and policy implications”
講師:アンドリュー・スターリング(英国サセックス大学教授)
Andrew Stirling (Professor of Science & Technology Policy (SPRU - Science and Technology Policy Research, The Sussex Energy Group, School of Business, Management and Economics))
slides(Japanese ver.)PDF |
slides(English ver.)PDF |
(※)当日は、午後の部の尾内さん「専門知を意思決定にどう使うか:日本の現状を踏まえて」の講演のあとにアンディさんの講演が行われました。 プログラムはこちら
(アンディ・スターリング)
ありがとうございます。私がこれから申し上げたいことの素晴らしい導入となりました。(※)また、この度はお招きいただいたことに感謝申し上げます。今回の訪日ではここまでのお話で、日本、オーストラリアの両国で、この問題がどう議論され、受け止められているかを知ることができ、非常に興味深く感じています。本日私は、すでに提起されたいくつかのテーマ、特に、尾内教授がお話しされた課題を直接引き継いでお話ししたいと思います。また、私の講演のタイトルには、本堂教授が今朝の講演で言及されたいくつかの言葉が入っています。不定性と不確実性は区別されており、不確実性とは単に限られた知識のひとつの状態に過ぎません。ここでは、法廷での科学的証拠 と関連づけながら、政策や法的実務に対するいくつかの意味の違いを明らかにしたいと思います。
(Andy Stirling)
Well, thank you very much. That was a fantastic introduction to what I want to say, and may I say thank you very much also for inviting me here. It's been fascinating so far on this trip to learn so much about how these issues are being discussed and thought about here in Japan and also in Australia. And I'm going to follow up directly on a number of themes that have been raised already, in particular the challenges outlined by Prof. Onai, but also my title refers to some words used by Prof. Hondou this morning, distinguishing between incertitude and uncertainty, uncertainty being just one condition of limited knowledge. So I'm going to try to differentiate a number of different implications for policy and for legal practice around expert evidence.
その前に、このテーマに関連する私の経歴を簡単に紹介しておく必要があろうかと思います。
Before I do so though, I should maybe say just a couple of words about my own background in this.
私は法律家でもなく、法律分野の経歴もありません。また、ある特定分野の科学者でもありません。私は、不確実性に注目し、科学的側面と社会的側面における不確実性、そしてその両者がどう密接に関連しているかについて学際的研究を行っています。これまでの成果のいくつかをここで紹介します。
I am not a lawyer, nor do I have any background in law, nor am I scientific specialist in any particular field. I am an interdisciplinary researcher focusing on uncertainty, both in its scientific aspects and also in its social aspects and the way the two things are intimately related. And I've done, some of the things I will say in this talk, at the beginning I will give an account of some of the deep challenges we face which will draw on work we have already heard from, and then in the second part of the talk I will look at some of the practical methods and processes that we can adopt to allow more robust decision-making, whether it be in policy or in law, to take place in the face of incertitude, and my basis for that is working in a number of areas on regulatory committees, looking at toxic substances or energy technologies or genetically-modified organisms, in a European and British context, so I hope some of that experience is relevant.
最初に、私たちが直面する深刻な課題について考察しますが、それについてはすでに皆さまがご存知の研究を参照しながらお話したいと思います。講演後半では、不定性という状況において、政治的決定、法的決定のいずれであっても、より確実な意思決定を行うために使用できる、実用的な方法とプロセスについて考察します。その土台として、私が欧州と英国で、様々な分野の規制委員会のメンバーとして、毒物、エネルギー技術、遺伝子組み換え生物等の問題に携わってきた経験がお役にたてばと願っています。
意思決定で科学が果たす役割について多くのことが議論されています。ここで、本会議の直接の目的である法的実務から少し離れ、政治的な状況を見てみましょう。科学の役割は世界中で、健康に関する分野において見られます。各国の指導者は、健全な科学、科学に基づく決定および証拠に基づく決定を、一意的かつ規範的なものとして、化学物質、遺伝子組み換え、原子力やより広範囲なエネルギーについて語っています。
So we've heard a lot about the role that science plays in decision-making, and if we step back for a moment from the direct focus of this meeting on the practice of law and look at the political background, we see this role for sound science, science-based decisions, evidence-based decisions in this unique prescriptive fashion, internationally, in the health area, on the part of many leaders in different countries, referring to challenges around chemicals or genetic modification or nuclear power or energy more generally.
一般的な政策論議のなかでは、科学は常に、権威ある根拠、絶対的な権威とみなされています。何度も聞いていることですが、科学とは現実の反映です。しかし、このような分野では、科学は、科学的現実ではなく政治的現実を反映し、意思決定における役割を十分に果たしていると解釈した方が正しいのではないでしょうか。
Repeatedly, in general policy debate, science is referred to as this source of authority, this definitive authority, and as we've heard a number of times, this is better seen, it's a reflection of reality, but it's better seen as a reflection of political reality than of scientific reality in these areas, that science can actually fulfill that role satisfactorily.
政治家や法的プロセス自体が、科学にこのような機能を求める理由は、本日の会議でも取り上げられましたが、正当化のプロセスにあります。意思決定者は、複数の選択肢のどれもが同等に受容できる状況であっても、自分たちが下した決定の正当性を示す必要があり、自分たちに向けられる非難を回避する必要があります。そのやり方について、私たちも聞いています。そのために、科学がオープン(確定できず、議論の余地を残している状態)で不確実であっても、独特のやり方で説明して正当化する必要があります。意思決定において、これは、自然の解釈における科学的現実と同じくらい強力な現実です。
And the reason we hear politicians and also the legal process itself requiring this function from science are processes that have also been talked about so far today of justification. Decision-makers need to justify decisions, even in the face of a number of different alternatives being equally acceptable. They need to manage blame in the way we've heard. And for that purpose, even if science is open and uncertain, it needs to be represented in a unique fashion, to perform the justification. That is a reality as powerful in decision-making as any scientific reality interpreting nature.
本日の講演で取り上げられた問題、例えば、原子力のリスク、化学物質のリスク、遺伝子組み換え作物等の問題を、科学が一般的にどう説明しているかについて、もう少し詳しく考察したいと思います。そのために、最も成熟し、精緻化されたリスク評価が実施されているといわれている分野から事例を選びます。というのは、科学は、いずれにせよ、リスク評価という手順を通して、技術およびその危険に関する法的決定または政治的決定に、国際的に確かな基盤を提供しているからです。
So let us just think about issues we've already heard about today in a bit more detail, about how science typically gives us a picture in an area like nuclear risks or chemical risks or genetically-modified crops, and just to illustrate this, I'm going to look at the picture from an area which is arguably the most mature and the most sophisticated for the practice of risk assessment because it is one way or another through procedures of risk assessment that science internationally delivers this firm basis for legal or policy decision-making about technologies and their hazards.
それではその例として、決定の告知において科学が最も頑健であると言われる分野の事例を示します。一般的な話をすれば「その技術はどのようなリスクを伴うか」という質問をすると、大勢の科学者集団が5年かそこらの期間をかけて報告書を作成し、大規模な科学委員会がリスク評価を行うか、あるいは専門家パネルがそれを審議することになるでしょう。そして通常、この技術、この殺虫剤、この遺伝子組み換え製品、このエネルギー技術に係わるリスクはこうです、というある程度正確な答えが示されます。
So in looking at this example, I'm drawing an area where the science is arguably most robust in informing decisions. And typically speaking, when we ask the question, what is the risk of a particular technology, and we pose this to a bunch of scientists who maybe write a report over five years, a big scientific committee risk assessment, or maybe it's an expert panel who deliberate, we typically get a rather precise answer: these are the risks of this technology, of this pesticide, of this genetically-modified product, of this energy technology.
様々な委員会が出した結果、様々な背景のなかで書かれた報告書の結果はどれも同様に正当な結果ですが、これらの結果を一歩離れて、相対的な目で見ることで、初めて広い視野で状況が把握できます。というのは、研究で得られた結果は、それぞれ大きなバラツキがあるのが普通だからです。
It's typically only when we step back and look at the comparable results obtained by different committees and different reports across a number of different contexts, all equally legitimate, that we start seeing a broader picture, because typically any one result that is obtained will display an enormous amount of variation across different studies.
この図にあるのは、先進国政府の規制機関だけで実施された21のピアレビュー調査で、「原子力のリスクはどのくらいか」という質問への回答をまとめたものです。バラツキが広い範囲にわたっています。中心の50%、四分位間のみに限定しても、原子力のリスクの値は高いものから低いものまで研究によって非常に大きな差があります。というのは、お気づきでしょうが、この図の横軸は金銭的リスクを示し、健康リスクと環境リスクを金銭価値に換算しています。しかし、人々の健康のみに絞るなど、別の尺度、別の指数を使った場合でも同種の図ができます。これは対数スケールなので縦軸間の差は2桁、100倍です。
This chart shows 21 peer-reviewed studies conducted only by government regulatory bodies in industrialized countries answering the question, what are the risks of nuclear power? There's a big range, and even if we restrict our attention to the 50 percent of the studies in the middle, the interquartile range, we still see a very big difference between the studies that find a high value or a low value for nuclear risks because, if you notice, the horizontal axis to this chart, which gives risks in money terms, converts health risks and environmental risks into monetary values, but the same picture applies if we measure, if we use different indices like just human health, we get the same kind of picture, the scale is logarithmic. So the difference between the vertical lines is two orders of magnitude, a factor of 100.
このことから、原子力リスクについての科学文献の不一致度は1万倍以上になることが分かります。調査結果の違いは業界調査やNGOの調査を除外し、規制機関の調査や、ピアレビュー済みの学術文献に限定しても、高いリスク推測値と低い推測値が1万倍も違います。これが、原子力リスクにおける健全な科学(sound science)なのです。
So from this we can see that the disagreement in the scientific literature about the risks of nuclear power differ by more than 10,000 times. The high estimates are 10,000 times higher than the low estimates for studies that are just not looking at the industry studies or the NGO studies, just looking at the regulatory studies and restricting ourselves to peer-reviewed literature. This is the sound science of nuclear risks.
「他のエネルギー技術のリスクは」という質問についても同じような実態であることが分かります。非常に大きなバラツキがあります。前にも申し上げましたが、化学物質、殺虫剤、特に食品に含まれる場合のリスク等々についても同じ状況が見えてきます。尾内教授が話されたように、固有の「閉じ込め」と見えるものの背後に、非常に大きなバラツキがあるのです。
And we get a similar picture when we ask the question, what are the risks of the other energy technologies? It's a remarkable degree of variability. And as I say, this same picture applies if we're asking about chemicals or pesticides in particular or food products, et cetera, et cetera. We get enormous variability behind apparent unique closure of the kind that Prof. Onai spoke about.
中央にグレーの線が見えますが、これは、あるひとつの研究を示すものです。他に60以上の研究が実施されましたが、全く異なる状況を示しています。
So you see that grey line in the middle and that is the gray line shows you one study, all these different, more than 60 studies, give a much different picture.
実際、一般に言われているように、毒物リスク、放射線ハザード、その他職業的リスクのどれであっても、ピアレビューの文献を基にした様々な技術の相対リスクの順位付けのうち、どれでも好きなものを正当化することができます。あるひとつの決定に確かな科学的根拠があることを印象づけられる研究を選び、それに意識を集中するだけです。
In fact, typically speaking, whether we're talking about toxicology or radiation hazards or other forms of occupational risk, it is typically possible to justify any ranking order one likes about the relative risks of different technologies based upon the peer-reviewed literature. It is only if we restrict our attention selectively to a particular study that we can give the impression of a firm scientific basis for a single particular decision.
これはきわめて困った状況です。私は、この「閉じ込め」のプロセスが重要だと思います。科学から得た知見の人為的「閉じ込め」は、マクレラン判事が明晰に話されていますが、法廷の対審過程だけで起きるのではありません。「閉じ込め」が法廷で非常に強い力を発揮することは確かですが、委員会などを招集して審議する規制科学のプロセスでも、この「閉じ込め」というプロセスが発生します。
This is quite a predicament. And so for me, what's important about this is this process of closure, this artificial closing down of what the picture we get of the science is not just something that occurs, as Judge McClellan very eloquently said, in the adversarial process of law, where one can see how powerful it is there, but also in the process of regulatory science, where committees sit and deliberate, one still gets this process of closure.
私は多くの委員会に出席し、様々な解釈について議論してきました。不一致は存在しますが、それは合理的な不一致であると認識しています。しかし、最終的には、コンセンサスを形成しなければなりません。そうでないと、私たちは仕事をしたとことにはなりませんし、委員長は昇進できません。「閉じ込め」をするようにとの多くの圧力がかかります。
I've sat on many committees where we've explored the different interpretations, we've realized there are disagreements, we realize that they are reasonable disagreements, but in the end we have to come to consensus, because if we don't come to consensus, we are not doing our job and the chair of the committee will not get his reward from the government of some higher position, and a lot of pressure gets exercised to come to closure.
そのため、コンカレント・エビデンスのようなプロセスは非常に素晴らしい方法であり、重要であると思います。というのは、特定の「閉じ込め」を許さない というだけでなく、対話を通じて、権威のある優れた専門家同士が、ひとつの問題について、なぜそこまで意見が一致しないかという理由を評価することができ、それによって、この場合は判事ですが、政策立案者でも良いのですが、彼らがより多くの情報を調べ、不確実な科学に対してどちらの解釈が、決定に対してより頑健な基盤を提供するかを検討することが認められている点にあると私は思います。これは、決定をしないという意味ではなく、決定する場合は、不確実性という未確定(オープン)な含意についての情報もより多く得た上で決定するということを意味します。
So for me, what is exciting and important about processes like concurrent evidence is not so much that they allow particular closure, but they allow an appreciation through the dialogue process of why reasonable authoritative experts can disagree by this degree on an issue and allow in this case a judge, or it might be a policymaker, to explore with more information which interpretation of uncertain science is the most robust basis for a decision. It doesn't mean a decision is not made; it means that when it is made it is better informed about the open implications of uncertainty.
そのための方法をいくつか紹介したいと思いますが、その前に、政策決定や法律という場でのリスク評価における知識の扱い方がいかにエキセントリックであるかを簡単に考察したいと思います。というのは、知的文化の違いは、様々な違いをもたらすからです。私たちは、知識の本質について理解していますので、誰もがリスク評価を優れた方法だとは考えていません。実際に、従来の専門プロセスでは、単一のアウトプット、単一の解釈を強要し、私たちの知識についての知識を様々な方法で抑圧しています。このことについて、少し、お話ししたいと思います。
Now before I speak about some of the methods for that, I just want to quickly reflect quite how eccentric risk assessment is as a way of handling knowledge in policymaking or in law because there are a number of things from different intellectual cultures. We know very well about the nature of knowledge, and they all tell us that risk assessment does not do a good job. In fact, conventional expert processes forcing a single output, a single interpretation, suppress what we know about knowledge in a number of ways. Let me say a few words about that.
第一に、こうしたリスク評価プロセスは、知識だけでは行動の根拠として不十分であることを無視しています。ここに神経科学の例がありますが、私たちは、どうすれば人間の特定の能力を強化できるかを理解したと考えます。どんな副作用があるのかは分かりませんが、能力は強化できると考えています。これは、私たちがそうすべきであるという意味なのでしょうか。知識だけでは行動は正当化されません。アリストテレス、カント、ハーバーマス等は、この問題について優れた研究をしていますが、多くの場合、ノウハウ(方法を知ること)は、ノウホワイ(理由を知ること)に比べて重要性は低いのです。本堂教授の講演でも、法的手続きから、ノウホワイ(理由を知ること)が排除されているのは明らかだと話されておられました。
First of all, these risk assessment processes ignore that knowledge alone is an insufficient basis for action. As in the example here of neuroscience, we think we understand how we might enhance certain human faculties. We don't know what the side effects might be but we think we can enhance them. Does that mean we should? Knowledge alone does not justify action. People like Aristotle, Kant, Habermas explored these issues very well, but know-how is often less important than know-why, and yet as we heard from Prof. Hondou's talk, know-why is often explicitly excluded from legal procedures.
知識について私たちが知っていることに、知識の不完全性があります。ナノテクノロジーのような分野では、何らかの作用を起こすのに必要な知識が得られても、それだけでは、より幅広い影響を理解する知識として必ずしも充分でも完全でもありません。ドナルド・ラムズフェルドの「未知の未知」(unknown unknowns)という言葉は、知らないことが、知っていることと同じくらい重要にもなりうることを示唆しています。古代中国の哲学者、老子は、無知を知ることは知識のなかで最も素晴らしい部分であると述べています。何かができるとしても、そのことの広い意味を完全に理解したことにはならないので、無知を認識することが不可欠なのです。
Another point we know about knowledge is its incompleteness. In an area like nanotechnology, the knowledge necessary to make something work is not necessarily sufficient or complete enough to understand its wider effects. And in the words of Donald Rumsfeld about the "unknown unknowns," unknowns can be as important as the knowns. Lao Tzu, the Chinese philosopher, spoke about knowing one's ignorance is the best part of knowledge. Recognizing ignorance is crucial because just because we can make something work doesn't mean we understand fully the wider implications.
この点に関係するのが、知識の不確定性(indeterminacy)です。何らかの作用を起こすために必要なことと、その環境や健康への影響について、十分知っていると考えたとしても、それは予期せぬ驚きに遭遇しないということにはなりません。ドナルド・ラムズフェルドは、「未知の未知」を語ると同時に「既知の既知」についても触れ、私たちは、知っていると考えることによって信頼感を持ち得ると述べています。
Linked to that point is the indeterminacy of knowledge, that actually just because we think we know only enough to make something work but enough about its environmental or health effects, doesn't mean we're immune to surprise. So when Donald Rumsfeld spoke about the unknown unknowns, he also spoke about the "known knowns," as if we can have confidence when we think we know.
しかし、それが誤解であることはフロンの例から学んでいます。冷蔵庫で使われていた既存の化学物質、スプレー高圧ガス、絶縁体のリスクについての長年の研究から、問題がないと信じる理由があるとして導入した化学物質がフロンでした。フロンのリスクは、私たちが知っていたリスクに比べれば優れた化学物質であると考えたのです。しかし、フロン自体は非常に不活性な物質ですが、成層圏で紫外線に曝露すると、全く予期せぬメカニズムが生じるという驚きに遭遇することは知りませんでした。
But this is a misunderstanding, as we learned for instance in chlorofluorocarbons where we thought we understood very well why we were introducing chemicals that we had good reason to believe were benign because we were so closely thinking about the risks of existing chemicals using refrigerants and propellants and insulants, that we thought these new chemicals would be fantastic compared to the risks we knew about. But what we did not know was we were going to get a surprise from a completely unexpected mechanism when these chemicals, which were very inert, became exposed to ultraviolet in the stratosphere.
このように、自分たちは知っていると思ったとき、あるリスクがあってそれを回避しようとするときに、最も無知の危険にさらされやすい状況が生じます。この問題は多くの哲学者が取り上げていますが、なかでも、数学の哲学者クルト・ゲーデルは、論理体系のなかであっても、予期せぬ驚きが存在しないことは保証できないという興味深い証明を行っています。
So it often occurs that we are most exposed to the dangers of ignorance when we think we know, when we think we have a particular risk and we try to avoid it. This problem has been written about by many philosophers, including interesting Kurt Godel, the philosopher of mathematics, who showed that even within a system of logic, it is impossible to guarantee that surprise is absent.
知識について、良く分かっているのにリスク評価では忘れてしまうことがもうひとつあります。それは、何かをするべきだと言われたものの、そこに何らかの不確実性があるときに、調べれば不確実性が小さくなるとして、もっともっと調べようとすることです。そのとおりになることもありますが、逆のことも起こります。アインシュタインは、知識は円のようなものだと言っています。知識が増えれば円周も大きくなります。つまり、知識が増えれば、無知も増えるのです。これはパラドックスではなく、紛れもない事実なのです。
Another thing we know very well about knowledge but forget in risk assessment comes up when we hear that actually what we should do, we have some uncertainty, let's do more research because more research will reduce uncertainty. This can happen but it can also happen the other way around. Einstein pointed out that knowledge is like a circle. As we increase knowledge we also increase the circumference of the circle. As we increase knowledge we increase ignorance. This is not a paradox. It's a fact of life.
例えば、 海洋や気候が非線形力学の法則に従っているということを認識すると、新しいことを発見し、知識が増えたことになります。しかし、非線形力学が非常に重要であるという知識を習得したために、海洋や気候がどんなことをするのかということへの確信が薄らぎます。知れば知るほど、不確実性が増すのです。
So for instance, when we realize the oceans and climate are subject to non-linear dynamics, we find out something new, we add knowledge. But the knowledge that non-linear dynamics are so important makes us less sure about what the oceans and the climate will do. We found out more; we became more uncertain.
知識の社会的側面のもうひとつの特徴は、無知にさらされるかどうかは、私たちが知識に傾倒するかどうかに左右されるということです。何かを知っていると思うと、そのことに熱中し、そのことに傾倒し、そのことを日常的に話し始めます。その知識について私たちには知らないことがありますが、知識に傾倒すると、知らないことがあるだけでなく、その無知にもっとさらされることになります。例えば、ある理解を根拠に原子力産業のような産業を開発するとします。その理解が間違っていたことが判明した場合、知識の解釈に影響を与え得るほど傾倒しているならば、より多く無知にさらされることになります。これは、多くの社会学者が指摘しています。
Another feature of the social context of knowledge is that our exposure to ignorance depends on the commitments we make, so if we think we know something, we invest in it, we commit to it, we start speaking about it in routine ways, and so it's not just that we have some ignorance about it, we are more exposed to that ignorance. If for instance we build an industry like the nuclear industry on the back of a certain understanding and that understanding turns out to be wrong, we're more exposed due to the commitments which can in turn affect the way we interpret the knowledge, in ways many sociologists of science have pointed out.
最後の点として、 諮問委員会に出席すると、内容とは関係なく、知識が足し算にならないことが分かります。生態学者、分子生物学者、農学者等の、あらゆる分野の専門家を同席させ、その知識を足し合わせようというのが諮問委員会の目標です。しかし、知識は必ずしも足し算にはならず、引き算にも、割り算にもなります。よく言われることですが、様々な分野の知識を集めると、互いに影響し合い、互いに脱構築します。私の経験でも、遺伝子組み換え作物についてこのようなことが生じています。知識は、足し算ではないのです。
And then finally, anyone who has served on an advisory committee in any context will know that knowledge is also not additive. The idea is, well, let's bring together different disciplines, the ecologists, the molecular biologists, the agronomists, and we'll get all the different experts in the room and we'll add the knowledge together, but knowledge is not additive. Sometimes it subtracts or divides. And typically speaking, when you get different knowledges in a room they interact in ways that deconstruct each other, as I know from some of the work on genetically-modified crops. So knowledge is also not additive.
規制の背景にあるこのような基本的前提の多くが、特定の答を正当化するのに都合良く利用されています。しかし、私たちは、何百年も知識について考えてきた結果、それが正しくないことを理解しています。
So many of these basic assumptions behind regulation are conveniently adopted to justify a particular answer, and yet we know, and hundreds of years of thinking about knowledge makes us know they are not true.
それでは、講演の後半で取り上げる若干肯定的なポイントに話を移したいと思います。
So let me then turn to some slightly more positive points that can be made in the second half of my talk.
これは、一般的なリスクへの対応方法です。ある既知の事象が発生する確率が設定できると仮定します。ここで私がお話しすることを、リスク評価を拒否しているとか、不当に扱っていると解釈しないでください。エンジニアリング・デザインなど、非常に強力で重要なリスク管理ツールが存在しています。それは閉鎖系システムであり、開放系に開かれたものではありません。都市における交通事故のように事象が頻発するものであり、前年の統計から翌年の状況を正確に予測することを期待できたり、背景事情がよく分かっているものです。このような状況では、確率を用いたリスク評価が最も力を発揮します。
Here is the usual way of addressing risk. We assume that we can assign probabilities to particular known things that might happen. And I don't want to be interpreted in what I say here as dismissing or being unfair to risk assessment. There are a very powerful set of tools and important tools for managing risk, like engineering design, which are closed, which are not open to open systems, where we have high-frequency events like transport accidents in a city where we can expect the following year to be well-predicted by the previous year's statistics or where the contexts are familiar. These are situations in which risk assessment using probabilities can be very powerful.
しかし、変化する世界や、はるかに複雑な動的開放系システムや、人的因子が関与するケースなど、別の状況もあります。設計者や作業者が危機の中でどのように行動するかを考えるときがそうです。あるいは例えば、様々な健康問題への感受性の個人差について、私たちは益々多くのことを学んでいますが、これも知識が増えると無知も増える例です。遺伝特性の違いは、どのように、様々な脅威に対する人間の感受性の違いをもたらすのでしょうか。そうしたすべてのことが、私たちが通常採用する確率が必ずしも信頼できない理由です。このような不確実な状況では、明確かつ厳密なリスク概念を明言すると、誤解を招きます
But there are other conditions under which a changing world or much more complex open dynamic systems or human factors, what happens when we think about what engineers or operators might do in a crisis, or for instance issues like the different human susceptibilities to many types of health effect, we're learning more and more, an example of increasing knowledge and increasing ignorance, how it can be that different genetic makeups for people can make them more or less sensitive to different kinds of threat, all these things are reasons why we might not be confident in the probabilities that we normally apply. So the apparent, clear, precise notion of risk is misleading under these conditions of uncertainty.
百年も前の英語の伝統に溯りますと、私にとって、リスクと不確実性の違いは非常に重要です。不確実性とは、確率に対して確信が持てない状況で、非常に一般的な状況でもあります。今でも、「確率が適用できない事象や状況は存在しない」として、ここに確率を適用しようとする人が沢山います。しかし、それは、自分の楽観主義、自分のやり方を自慢したいだけのマッチョなやり方といえます。すべての問題を釘に見立ててハンマーを打てば良いとする諺のなかの人物のようです。どんな問題でもハンマーを使って同じように解決しようとします。現在の政治的、法的環境のなかで、リスク評価もこれと同じように働く面があります。しかし、他のツールも使えるということを、後ほど説明したいと思います。
So for me, going back almost 100 years in the English language tradition, this difference between risk and uncertainty is crucial. Uncertainty is a condition under which we are not confident in probabilities but which is a very common condition. There are still many who try to apply probabilities here saying there's nothing, there is no situation where I cannot apply a probability. But this is a rather macho way of simply boasting about their optimism, about their method. You could say it's a little bit like the proverbial person with a hammer for whom every problem is a nail. They have a hammer and they hit every problem with it. Risk assessment has something like that function in our current policy and legal culture. As I will show in a moment, there are other tools though that we can use.
その前に、さらに大きな論争になっている問題を紹介したいと思います。リスクは、確率 ×大きさ(マグニチュード)と定義することができます。これは科学的な定義で、リスク評価の基礎になっている概念です。ここまでは、確率に対して自信がないときはどうなるかという問題だけを取り上げてきましたが、事象の実現性については、大きさについての確信が持てない場合というもうひとつの軸があります。どう解釈すべきか、何を意味するのか、異なるアウトカムが出たときにはどのような順位にするか、何を優先するかを決めるには、私たちの知識に問題があるかもしれません。
But before I do that, I want to show something even more controversial because the definition of risk is a probability times a magnitude. That's the scientific definition, that's the one that risk assessment is based on. So far, I've just looked at the problem of what happens if we aren't confident in the probability, but there's another axis, where we might not be confident in the magnitude, in the possibilities. Our knowledge may be considered problematic about how to interpret, what are the meanings, what are the ranking orders, what are the priorities when it comes to different outcomes?
これは多義性という状態です。可能性が分からないことについての問題ではなく、確実であることにも使える言葉です。損害の定義に違いがある、利点と欠点に対する理解に違いがあることを表現しています。遺伝子組み換えが安全か危険かを考えるとき、私たちは、人体、生態系、農産物にとっての安全性ということを考えているのでしょうか。それとも、世界中の貧しい農民、彼らが巨大ビジネスの前でどれほど脆弱かということに関係するのでしょうか。それとも、世界貿易と関係しているのでしょうか。これらは、発生確率の問題ではなく、私たちが利害をどう解釈するかということと強く関係しています。
This is a situation of ambiguity. It's not a question of not knowing how likely things are. It can apply to something that may be certain. It's about different definitions of harm, different understandings in pros and cons. For GM is the harm safety, human safety, or is it ecological or is it agronomic or is it to do with the poorest farmers in the world and how vulnerable they might be to big business or is it to do with world trade? These are not issues that depend on probabilities. They depend on interpretation of the benefits and the harms.
そこで異なる選択肢、異なる視点、異なる倫理的枠組みについて議論することになりますが、それらはすべて、ある事態が発生する可能性とは関係なく、可能性が100%と考えていても、そしてすでに起こっていることであっても、あてはまります。私はよくイラク戦争の例を挙げるのですが、イラク戦争は勃発しました。発生確率は1です。でも、何が起きたのでしょうか。あれは、民主主義のための戦いだったのでしょうか。石油のための戦争だったのでしょうか。帝国主義のための戦争だったのでしょうか。それとも、文化の衝突だったのでしょうか。これについては私たちの意見は一致しません。これが、多義性です。
So where we find ourselves arguing about different options, different perspectives, different ethical frameworks, these are all issues that apply whether or not something is likely or not, even if we think it is 100 percent likely, even if it is already happened. The example I often give is that of the Iraq war which occurred, probability one, it happened, but what happened? Was it about democracy? Was it about oil? Was it about imperialism? Or a clash of cultures? We disagree on these things. That's ambiguity.
他にも、私たちが無知だったために驚かされる状態があります。それは、意見が一致しないという状況ではなく、予想さえしていなかったBSEのようなことです。それまで全く知られていなかったプリオン がBSEの原因でした。フロンについても申し上げましたが、成層圏のなかで紫外線によって化学反応が活性化されるという事実は驚きでした。内分泌かく乱物質についても、その有害作用をもたらすメカニズムは、既存の毒物学では全く考慮されていませんでした。
And then down here we see the condition of ignorance where we are subject to surprise, whereas completely, not things we disagree about, things we just didn't even expect, like BSE and the prion agent, the unknown agent that causes BSE. I mentioned chlorofluorocarbons. It's a surprise that there is a chemistry activated by ultraviolet light in the stratosphere which we didn't know about, like endocrine-disrupting chemicals, where the mechanism for harm was simply not taken into account by existing toxicology.
しかし、あらゆる側面から、これらは非常に重要な環境問題、健康問題で、法律や政治が心配しなければならない問題であることはすでに理解されています。これらは、リスクの問題ではなく、無知の問題です。
But there are all sorts of ways in which these are the most important environmental and health issues that law and policy are concerned with, that we actually know about, not questions of risk but of ignorance.
にもかかわらず、なぜハンマーを打ち続けるのでしょうか。私たちは愚かなのでしょうか。それとも、悪意でそうしているのでしょうか。尾内教授やその他の講演者がお話しされたように、不完全な知識を発見すると、どれもこれも、左上のように、リスクと解釈してしまう背景にある社会的、政治的、制度的な理由を理解することが重要だと思います。私たちがそう解釈する理由は、制度がそれを誘導してきたからです。製造物責任法があることによって、「一定の損害、一定レベルの影響だけを心配すれば良い。その後は他の誰かの問題になる。」「驚くような状況が生じても、枠の外にあれば御社の問題ではない。国の問題であり、被害者の問題である」というメッセージを企業に伝えます。
So why is it then that we carry on using this hammer? Is it that we are stupid or rather mischievous in the way we conduct these things? I think it's important to understand, as Prof. Onai said and other have commented, the social and political and institutional reasons why we constantly find ourselves in that top-left area interpreting all the kinds of incomplete knowledge we find as risk. It's because we're driven there by institutions. When we have liability law, it tells a company you only have to worry about certain kinds of harm and certain kinds of levels of impact after which it's someone else's problem. So things that occurred that are a surprise, beyond that framework, are not your problem. That's the problem for the state or for whoever suffers the effects.
同様に、保険会社は、会社が不確実性に左右される状況について保険を提供しますが、製造物責任法を対象とした保険制度によって、ある種の、ある状況の不定性が保険の対象となり、私たちは(図上の)リスクの位置に連れて行かれることになります。
And likewise, insurance companies provide cover where a company is subject to uncertainty but the institution of insurance, subject to liability law, takes us into a position where certain kinds and conditions of incertitude are covered and we find ourselves in a position of risk.
さらに、 モデリングプロセス、政治プロセス、費用便益分析がすべてを包括し、このような健全な科学的プロセスによって、私たちは、是非は関係なく左上隅に移動してしまいます。
So likewise, modeling processes, political processes, cost-benefit analysis, aggregates things together, these sound science processes move us to that top-left corner whether or not we should be there.
それが、私が「不定性」という言葉を使う理由です。知識の欠如がもつ様々な含意を理解できない理由のひとつに、それを表現する言葉がないことがあげられます。そのために、すべてがリスクとして扱われます。「不確実性」と呼ぶこともありますが、その場合でも「確率」を使ったうえで、全体を表現する言葉として「不確実性」を使います。そして、すべての状況を表現する言葉がひとつしかないので、最後は、「リスク評価」が利用できると考えることになります。ですから、このように異なる状況を集合的に不定性と名付けることは有用ではないでしょうか。
So this is why I use the term incertitude because one of the reasons why we don't see these different implications of a lack of knowledge is because we don't have the words for them. We treat everything as risk. We sometimes call that uncertainty but still use probabilities, and then uncertainty is also the word for the whole thing. So in the end we end up thinking, because we've just got one word for it all, that risk assessment is applicable. And it might be useful to refer to all of these different conditions together collectively as incertitude.
どんな言葉が使われるかは重要な問題ではありません。重要なのは、様々な含意を区別しないと、様々な方法を使い分ける本当の理由が分からなくなるという点です。というのは、リスク評価が使えない場合でも、立証責任はどうか、議論のなかで誰が説得責任を負うのか、どの程度のレベルの証拠を要求すればよいのか、高レベルか、低レベルかを真剣に考える非常に強力なアプローチがあり、それを使えば、リスク評価を行わなくても審議できるからです。
Anyway, it doesn't matter what the particular words are. The point is, if we don't discriminate between the different implications, we don't see the real reason to use different kinds of method, because even though we can't use risk assessment, there are very powerful approaches to thinking hard about the burden of evidence, about who has the responsibility to persuade in an argument, about what kinds of levels of proof we might demand, higher or lower, which one can engage in deliberatively without doing risk assessment.
決定分析、感度分析等の手法を使って、問題やモデルを検討し、「モデルへのインプットを変えるとどうなるか。アウトプットはどうなるのか」を問うこともできます。アウトプットが変化しても、ひとつの値だけに注目せず、枠全体を取り上げます。このように、沢山の高度な手法がありますが、それらは唯一の科学滴解釈を提供するものではなく、不確実性のなかで、より科学的、より厳密な解釈を提供するものです。
One can also use techniques like decision analysis, sensitivity analysis where you explore, you have a problem, you have a model, and you ask the question, what happens if I change the inputs to my model, what happens to the outputs? And you see the outputs change, and you don't take one value, you take the whole envelope. There are many sophisticated techniques like this which do not deliver these unique interpretations of the science but are more scientific, more rigorous under uncertainty.
同様に、多義性に直面している場合、恣意的に別のシナリオや視点を探し、別の視点での価値判断を評価し、相対的決定がどうなるか、相対的な受容性によっての決定がどう変わるかを検討することができます。また、マッピングという手法も沢山あり、それを使えば、異なる視点と科学がどう相互作用するかを示すことができます。これについては、私の講演の最後に紹介します。
Likewise, when we face ambiguity we can deliberately explore different scenarios and perspectives and value judgments by different perspectives and see how the relative decisions, the decisions vary in their relative acceptability. And there are many mapping techniques which map how different perspectives interact with the science, in ways I'll show at the end of my talk.
一般市民を関与させる参加プロセスもあります。それは、詳しい技術を理解していない一般市民が果たせる役割に私たちが幻想をいだいているとか、それが政治的に正しいというのではなく、聞かれた問い、もっと重要なことは、聞かれていない問いに対して一般市民が非常に貴重で重要な意見を持っていることがしばしばあり、専門家は、方向指示器を点灯する制度的環境にあるからです。市民参加プロセスを実施するのは、市民に対して幻想を持っているからではなく、科学的な問いに対して厳密に対応しているからです。
But also participatory processes where we bring people in, not because we're being romantic or politically correct about the role ordinary citizens can play, who do not understand the technical details, but the ordinary citizens often have very important things to say about the kinds of questions that are being asked, and more importantly the kinds of questions that are not being asked because the experts find themselves in an institutional environment that puts blinkers on them. So we're not being romantic about citizens when we do these processes; we're being rigorous about the questions asked of science.
民主主義というものは、様々な見方を内包し、最終的には政治プロセスによってひとつに決定されるにしても、政治的対話のなかでは多様な意見を同等なものとして扱うものです。社会のなかに複数の見方があり、互いに競っているという事実は、科学自体に健全な環境を作っているのです。
And democracy itself, having an array of different views treated equally in political discourse, even if in the end one will prevail over another, according to political process.
実際に科学は、ピアレビューや懐疑主義、コメント、科学者による共同体主義的行動を通して、民主主義と非常によく似た原理に依拠しています。
The fact that these views are out there in society and contending with one another is a healthy environment for science itself. In fact, science is based through peer review, through skepticism, through comment, communitarian action by scientists on very similar principles to democracy.
そして、何を知らないかを知らないという無知の状態にあっても、きわめて具体的な活動は可能です。「卵を全部同じかごに入れる」、すなわちたったひとつの方法ににすべてを賭けることは避け、良かれ悪しかれ、予期せぬ事や驚きとの遭遇に備えます。柔軟な選択肢を選べば、環境的、社会的のいずれであっても、失敗したら容易に撤退することができます。
And even under ignorance, where we don't know what we don't know, we can still do quite concrete things. We can not put all our eggs in one basket so that we are ready for surprise, good or bad surprise. We can put a premium on flexible options, things that if they go wrong we can withdraw more easily, whether it be in environmental terms or in social terms.
本質的に、広義の不定性の認識は、リスク評価が全体像のなかの一部にすぎないことの認識に他なりません。すなわち、科学の見方をひとつに絞り込むことは、非常に非科学的であり、非常に政治的です。科学的であるためには、不確実性を予防的にとらえ、参加への注目を促し、学習や適応に対してもっとオープンになることが必要です。これは、不定性をもっと広義にとらえることで発見できる含意です。
So essentially then, recognizing incertitude in a broad sense means recognizing that risk assessment is only part of the picture, that narrowing down science to a single view often is very unscientific and highly political, and instead, being scientific, we need to look in a precautionary way at uncertainty to include attention to participation and to be more open about learning and adaptation. These are the implications we see when we take incertitude seriously in its broader senses.
この図で言いますと、左側から始めるということです。典型的な専門家委員会や法的プロセスを表しています。右に移動しますと、様々な異なる答を得るやり方がお分かりだと思います。ここで、理由を考えはじめます。
Now it means then going from the picture on the left, which is what a typical expert committee or a legal process will deliver, and going down to the right where you appreciate how you can get different answers, and then you start deliberating on the reasons why.
「予防(precautions)」について少しお話しします。予防原則は非常に議論の余地のあるテーマで、技術やリスクの課題に対する非常に感情的な反応とみなされることが良くあります。また、自分が望むどんな答えでも得られ、何の技術も追求しなくなり、最終的にはマヒ状態になる可能性もあるため、非常に運用が難しいとも言われます。
So let me say a few words about precaution because the precautionary principle is very controversial. It's often treated as a very emotional response to challenges of technologies and of risk, and of one which is very difficult to operationalize because you could get any answer you like and probably you end up not pursuing any technology and it leads to paralysis.
ときに予防を含めることもある決定則ですが、それ自体で満足の行くものではないことは確かです。深刻な危害や非可逆的危害の脅威があれば、科学的証拠の欠如は不活動の理由として使うべきではないというのがひとつの公式です。様々な予防的公式(precautionary formulations)がありますが、どれも、私たちが何をすべきかを示しておらず、どれも、確かな答を出していません。
And it's true that the decision rules that precaution is sometimes compressed into are not satisfactory in themselves. Where there are threats of serious or irreversible harm, we shall not use, we shall not take a lack of scientific evidence as a reason for inaction is one of the formulations. There are many different formulations of precaution, but none of them tell us exactly what to do.None of them give us the exact answer.
しかし、リスク評価の背後にある原則も、60年前から実施され、精緻で高度な手法や機関があり、その費用は年間数百万ドルにもなるのに、どうすべきかについてはっきりした答を出せないということを申し上げたいと思います。
But then I've just tried to show that the principles behind risk assessment, even though we've been following them for 60 years and have very elaborate techniques and institutions, costing many hundreds of millions of dollars per year following these practices, it also does not give us a firm picture of what to do.
予防とは本当は何かというと、法的プロセスまたは政策プロセスの様々な特性を明らかにし、リスクと呼ばれるもの、私が不定性と呼ぼうとしているものについて考察することです。欧州環境機関の研究報告書「早期警告からの遅い教訓」は、100年以上にわたる世界中の環境規制の歴史のなかから13の事例を取り上げ、一般的結論を導いています。その概要を紹介します。
What precaution really is about is opening up a series of different features of the process, the legal or political policy process, for deliberating about what we call risks, what I would call incertitude. It means, and here I'm drawing on work from the European Environment Agency Study, "Late Lessons from Early Warnings," which looked at 13 different case studies in the history, over 100 years of environmental regulation around the world, and drew some general conclusions, which I'm summarizing here.
ここで、得られたひとつの結論が対象範囲の拡大です。「ある製品が受容できるか、できないか」というだけにとどまりません。様々な製品、様々な影響に注目します。非常に定量的な技術で毒性評価が行われたり、その他の有名な手法が用いられるなど、一般的な方法でリスク評価がなされたものだけでなく、測定が容易ではない様々な分野にも注目します。それは、正確な答えを導くためでなく、その結果がどうなるかについて広い意味で答えようとするためです。
One conclusion is you extend the scope. You don't just say, is this acceptable or not, this particular product. You look at the range of different products, you look at a range of different effects, not just the ones that have been measured by the risk assessment, which are typically the ones where there's most quantitative techniques for toxicology or some other well-known practice, you look across different areas which are less well easily measured, not because you try and get a precise answer but because you want to answer broadly what those consequences might be.
またライフサイクルに注目します。将来どう変わっていくのかを考えます。単一の解釈への絞り込みは非常に困難ですが、どんなに絞り込んでも、単一の解釈にはならないことはすでに分かっているので全く問題ありません。
You look at life cycles. You look at how things might change in the future, things that are very difficult to pin down to a single interpretation, but that's okay because we've already heard how actually you can't get a single interpretation anyway, even if you narrow it down.
不定性についてはもっと明白です。様々な種類のリスク、多義性、不確実性および無知について、様々な手法を用い、先に述べた方法で取り組んでいます。内分泌かく乱物質、GMO、フロンの事例は、そのような取り組みをせず、リスク評価に依存し、放置してきた結果を示しています。
We're much more explicit about incertitude. We use different techniques to address different kinds of risk and ambiguity and uncertainty and ignorance in ways that, the examples I put here of endocrine-disrupting chemicals and GMOs and chlorofluorocarbons are examples of how we did not do this in those cases, when we left ourselves exposed to the consequences of relying on risk assessment.
私たちは、科学ができることをもっと謙虚に考えています。これは、科学を拒否するという意味ではありません。今も、意思決定プロセスには科学は絶対に不可欠です。科学から得られる決定は単一ではありませんが、科学によって多くのことが排除されます。例えば、環境内の化学物質や化学製品のもつ残留性や生体蓄積性といった性質は、必ずしも悪いことではなく、鉄鋼等は、建築物として残留して欲しい物質です。毒物学の研究者の多くは、「おかしな話だ。残留性をなぜ問題視しなければならないのか」と非難します。しかし、リスク評価に全幅の信頼が持ててはじめて、そう言い切れるのではないでしょうか。
We are more humble about what science can do. This does not mean throwing science out. Science is still absolutely essential to the decision-making, it just doesn't give us one decision. It can rule out many things. But for instance, properties like persistence and bioaccumulation, chemicals or products in the environment, they accumulate or persist, that's not necessarily bad and many times we want the things to persist, like steel, and when we build a structure we want it to persist. So many people who do toxicology say, this is crazy, why should we treat persistence as a problem? But that can only be said if we are completely confident in risk assessment.
もしリスク評価に限界があることを認識していれば、「もし間違っていたらどうなるか」と自問します。間違っていたとします。そのとき、ある製品の残留性に否定的な驚きを持つと不利な立場になります。これは、残留性が悪いという意味ではなく、他のことすべてが同等であるときに、自らを無知だと感じると、残留性が強い選択肢より、復元性の高い選択肢を選ぶようになることを意味しています。
If we realize there are limits to risk assessment, then we ask the question, what happens if we're wrong? And if we're wrong then it is a disadvantage if we get a bad surprise that the products are persistent. It doesn't mean persistence is bad. It just means all else being equal, if we feel we're ignorant, we should probably follow options that are less persistent or more reversible.
それは、研究実施の有無は多くの場合非常に政治的な判断であることを認識した上で、研究に積極的な取り組むことを意味します。BSEのような事例では、それがたびたび起こりました。人々が怖がるのではないかという理由で決定的研究は長年実施されませんでした。つまり、恣意的に実施しなかったのです。トリブチルスズや防泥剤も同じことです。
It means being proactive about research, recognizing that where research does and doesn't get done is often highly political, and in cases like BSE it was often the case. The crucial research wasn't done for many years because there was a worry that the public would be scared, so it was deliberately not undertaken. The same is true in cases like tributyltin or the anti-fouling agent.
これについては慎重に議論を進めました。専門家だけでは、適切な証拠レベル、立証責任、誰が説得すべきかを明らかにすることはできないことを認識しました。政治的な問題、あるいは様々な法的背景で審議すべき問題であり、専門家に決定を任せられる問題ではありません。
We're much more deliberate about the argument. We recognize that the experts alone can't tell you what the appropriate level of proof is or the burden of evidence or who should do the persuading. This is a political matter or a matter subject to legal deliberation in different contexts of law. It's not a matter that you can rely on experts to tell you.
様々な選択肢について考えます。「これは容認できるか否か」だけではありません。私が出席していた欧州の諮問委員会でのことです。全員が、ある選択肢、ある殺虫剤が全くひどい製品だということで合意していました。しかし、これよりひどい製品が既に市販されているので、その製品を禁止する法的根拠がありませんでした。もし禁止すれば、もっとひどい製品が市販されているという事実と辻褄が合わなくなるからです。さらに、もっと良い製品があるかもしれないのに、1度に1製品しか調べないので、優れた製品が入り込む余地がないという事実もありました。比較をしながら相対的に見れば、その分野をどういう方向に進めていくべきかを検討することができます。
You consider different options. You don't just look, is this acceptable or not? I've sat on advisory committees in a European context where everyone agrees that a particular option is really rather bad, a particular pesticide is a bad product, but it's not worse than some things that are already on the market, so you actually still, you have no legal basis for prohibiting it because if you did that, you would be inconsistent with the fact that there are worse things on the market. The fact that there are other things that could be a lot better doesn't come into it because you are simply looking at one product at a time, on a case-by-case basis. So if we look more comparatively we can look at what the better general directions for progress in a particular area might be.
様々な異なる学問領域を巻き込み、一般市民も参加させます。ここでも、一般市民に幻想をいだいているからではなく、様々な価値や関心およびそれが科学とどう相互作用するかを厳密に理解したいからなのです。
You involve different disciplines, as well as involving public engagement, again, as I say, not because we're romantic about the public but because we're trying to be rigorous about different values and interests and how they interact with science.
要約すれば、「事前警戒」において、リスク規制と意思決定のより主観的で政治的な側面を切り開くことです。こうしたものはすでに存在していますが、主観的ではありません。私の言葉で表現するなら「多元的で条件付き」の方法を用いています。これは「何でも良い」と言っているのではありません。多くの解釈や理解が出てくるなかで、科学によって間違っていることを指摘することができます。しかし、科学から答を導いたとしても、正しい答をひとつに絞ることはできないということを説明しましょう。
So in short, what one does in precaution is open up the more subjective and political dimensions of risk regulation and decision-making. You don't make them subjective ? these things are already there. But you treat them in a way that I refer to as plural and conditional. This is not an argument that anything goes. There will be plenty of interpretations or understandings that could be shown by science to be wrong. But typically, in a way I'll show in a moment, the answers you get from science will not reduce the correct answers to just a single one.
複数の答があります。XとYという仮定に関連してAとBという答があるとします。科学的プロセスを経て、裁判官や政治的意思決定者の手に渡ります。AとBのどちらが正しい道筋かを決めるのは科学者ではありません。科学者は、Aは条件Xに、Bは条件Yに当てはまるとだけ伝えます。XかYかの違いは、裁判官であれ、政策立案者であれ、意思決定者が決める問題で、政治や行政のプロセスです。
So you look at different answers. You look at answer A and answer B in relation to their assumptions, X and Y, and the scientific process hands that on to the judge or to the political decision-maker, and it is not up to the scientist to decide whether A or B is the right course of action. They just say A applies to condition X, B applies to condition Y. The difference between X and Y is more a matter for the decision-maker, be it a judge or be it a policymaker in a political administrative process.
これが「事前警戒」によって伝えられることです。それは、何もしようとしないことでも、技術を恐れることでもありません。科学と対立することでもありません。知識、知識の本質、科学の本当の価値や限界についてもっと厳密に対応することです。
So these are things that precaution tells us. They're not about not doing anything. They're not about being scared of technology. They're not even in tension with science. They're about being more rigorous about knowledge and about the real nature of knowledge and the real value and limits of science.
40分弱の講演で申し上げた内容を具体的に説明するために、遺伝子組み換え分野の例をあげながら、最善の穀物栽培方法の決定に科学はどう役立つかということをお話しします。
So to try to just finish my talk and be concrete about what I'm saying, I think coming in a little bit under 40 minutes, I want to give an example which comes from the field of genetic modification and thinking about how science can help us to decide what kinds of ways of producing crops might be best.
私は、欧州と英国で、この問題に関連するいくつかの科学委員会に参加しています。そこでの経験をお話します。そのうちのひとつの委員会に出席したときのことですが、「この製品を認可すべき」という単一の答を出すよう強い圧力がかかっていました。しかし、委員たちの見解は多種多様でした。
And I served on a number of different scientific committees in Europe and the UK on this matter, and this experience is drawn from that, because on one committee I sat on, it was under huge pressure to come up with one answer, that this product should be licensed, and yet you could see that in the committee were many different views.
GM Science Review Panel (GM科学検討パネル)と命名された機関(GMの様々なリスクを総合的に検討する目的で10年前に英国で設置された機関)が採用していたプロセスは、私の知る限りでは、英国の規則のなかではユニークなもので、科学者が何に合意したかを述べるだけではありません。コンカレント・エビデンスのプロセスと非常に良く似ているのですが、意見が不一致の場合、リスクとしてみなすことのできない不確実性がある場合、驚きに遭遇する可能性が高い場合は、意思決定者に向けて公の文書を提出し、幅広い議論を求めるというものでした。
And as a result of that experience, the process that was employed in a thing called the GM Science Review Panel, which was a panel we had about ten years ago in the UK looking across the board at different GM risks, was unique in British regulation to my knowledge in actually encouraging the scientists not only to say what they agreed about, but very similar to the concurrent evidence process, to also document publicly for the decision-makers but also for the wider debate where they disagreed, where there was uncertainty that could not be treated as risk, and where we were most exposed to the possibility of surprise.
GM問題についてもこうした報告が出され、最終的に、英国ではGM食品に対しては「赤信号でも青信号でもない」という、政治家を驚かせるような結論を導きました。科学をどう解釈するかは基本的には政治の問題です。これは,科学的に頑健な基盤に依拠した決定だと私は思います。
And the report went through those issues, and in the end, much to the politicians' surprise, concluded that we don't have a red light or a green light for GM food in the UK. It's basically a political matter how you interpret the science, which I think is a much more scientifically robust basis for that decision at the time.
もう少し詳しく説明しますと、私を含めたメンバーは非常にきめ細かい手法を用い、様々な専門家にインタビューをし、ある作物を英国で生産するための様々な選択肢のリスクに対する彼らの見解を確認しました。
But to give a bit more detail, I and some colleagues went through and interviewed using a very detailed technique what the different views of different experts was on the risk of different options for producing a particular crop in the UK.
この2枚のチャートは、当時、英国の主要な政府系諮問委員会の議長をつとめていた2人の専門家の答を示しています。彼らの回答は、表面的には全員一致の答として政府に提出されました。詳しいことは控えますが、様々な農業戦略のリスクに対するこの二人の見解は全く異なっていました。ここに別の委員会メンバーの見解を加えます。全員が専門家ですが、その背景は違います。本当に多様であることが分かります。
So these two charts show you two experts, who at the time chaired the main government advisory committees in the UK, which were given the government in an apparently single answer. I don't want to go into the details but you see the views of these two people are utterly different about what are the risks of different agricultural strategies, and if you add other committee members to the picture, all of them experts but coming from different perspectives, you see the full range.
あるレベルでは、シンプルに見える答の背後にどれだけ多くの不一致があるかを示しています。「はい、この製品を認可してください」という答もありますが、「ここに詳述されているような多くの重要な問題がある」という回答もあります。これを英国の高級行政官に見せました。この仕事はユニリーバという大きな多国籍企業のために行っていたので、英国政府はこの問題を深刻に受け止め、高級閣僚レベルで話を聞きたいという要請がありました。その会議に向かう途中で、行政官が私に「君は真剣にこれを大臣に見せるつもりか。大臣は科学から導かれる具体的な見解を欲しがっているので、これは無責任だ。君たちが何をやっているのか君たち自身も全く分からないということを大臣に伝えるだけだ。君の息の根が止まるのを見るのが楽しみだ」と言いました。
Now at one level what this does is show you how much disagreement there is behind apparently simple answers. Yes, license this product. But another answer is, there's a lot of really quite important detail here. When I showed this to a senior British civil servant, who ? because I did this work for a big company called Unilever, a big multinational company, the British government took it seriously and wanted to listen to it at a high ministerial level ? but on the way to that meeting I was told by a senior civil servant, you are dead showing a minister this, this is completely irresponsible because a minister wants a certain view from science. This is just telling the minister you don't know what you're doing and I'm going to enjoy watching you die, he said.
2004年はGMが大きな問題になっており、私が会う大臣は当時、英国内閣でも重要な立場の方でしたので、それを提示することにあまり楽観的な気持ちはありませんでした。
So I wasn't very optimistic about presenting this to the minister, who was a very senior person at the time in charge of the Cabinet Office in the UK because the GM was such a big issue in 2004.
しかし、その結果を見るなり、「どうもありがとう。『どうみても悪いとしか言えない事がある』ということを私に伝えているのね」と大臣は言いました。当時、ある戦略がありました。ここに詳しく書いてありますが、例えば、GM作物の規制に対する政府の戦略は、自主規制でした。グリーンピース、業界、規制委員会等、誰も、これが最善の戦略だとは思っていませんでした。最善のGM戦略だと思っていませんでした。そして、多元的で条件付きの勧告から、現行の戦略は最悪であるという具体的なものが出てきました。
But actually what happened when the minister saw this was she said, well, thank you very much, what you've told me is certain things don't ever look good. There were certain strategies. For instance, it's in the detail here, but the government strategy at the time of regulating GM crops was voluntary controls and nobody thought that was the best strategy, not Greenpeace, not the industry, not the regulatory committees. Nobody thought that was the best strategy for GM. So something concrete came out of the plural and conditional advice ? that the existing strategy was the worse strategy.
他にも、NGOが、業界と、有機農法は英国では食糧生産におけるリスク削減面で非常に大きな可能性を持っているということで合意したことが明らかになりました。しかし、普通、特定産品だけを検討している規制委員会は、有機農法全般について全く検討対象にしていませんでした。
Other things that came out was the NGOs agreed with industry that actually organic farming had very strong potential in the British context for reducing risk in food production, but normally organic farming was not looked at by regulatory committees who just looked at particular products.
その一方で、反GMキャンペーンを行っている環境団体さえもが、不確実性を真剣に考えると、適切に実施されたGMと、実施方法が不適切な有機農法を比べると、GMの方が良いのではないかと感じるということが明らかになりました。
And also, on the other side, it showed that even for environmental organizations campaigning against GM, for them, GM, if you took the uncertainty seriously, could be better than organic farming if it was implemented well and organic farming was implemented poorly.
彼女は「ありがとう。私が保安相のとき、状況についてのブリーフィングを毎週、受けていました。そのときはブリーフィングが終わってから、ようやく「そもそもどんな前提条件なのか」と質問していました。スターリング教授、貴方は、「この時点で早くも、専門家が想定した内容を伝え、その想定がどれも科学的ではないので、どれが最も健全な決定に見えるかは決めるのは、科学者ではなく、意思決定者である私に任せるというのね」と言われました。この女性こそ、モー・モーラム、並外れて優れた政治家でした。
So the minister said thank you very much, when I was a security minister I had to get a briefing every week about what the situation was, and then only at the end could I come back and interrogate my experts saying what have you assumed. And you're telling me, Prof. Stirling, that experts can come already saying what they've assumed and leave it to me as the decision-maker to decide which assumptions seem most robust because they're not scientific. Now this woman called Mo Mowlam was a very unusual politician.
この事例で締めくくりたいと思います。これは、意思決定への圧力があっても、このような状況、このような多元的で条件付きの科学的状況の方がより現実に対応できるという判断を示しています。このことは、無理にコンセンサスを得ようと長い時間をかけたのに、それが間違ったコンセンサスだったというよりは、効率的で迅速な意思決定に役立ちます。
But I end on this example because I think it shows how, despite the pressures in decision-making, there is a sense in which this kind of picture, this plural and conditional picture of the science, can be much more practical, it can help a decision, it can help it be more efficient and more quickly arrived at than trying for many years to force a consensus which in the end might be wrong.
最後に、科学に対する厳密性と民主主義に深刻に向き合うことは、本質的に関連性があることを示しています。なぜならば、技術規制における重大な問題について、最終的に科学がいつも語っていることだからです。
And in the end it also shows the intrinsic links between being rigorous about science and being serious about democracy, because in the end this is typically what science says about big issues in the regulation of technology.
単一の答は科学を脆弱化します。また、答を得る方法は、質問の仕方によって変わるので、民主主義をも脆弱化します。そして、この種のアプローチが、そのことを明快に表しています。
And to treat it as giving one answer is undermining science, and it's also undermining democracy because the way you get the answer depends on how the question is posed, and this kind of approach draws that out more clearly.
不定性が置かれた一般的な苦境について私がお話した議論が、具体的で明快なものであったことを望んでいます。ご清聴ありがとうございました。
So I hope that has illustrated quite concretely the kind of argument I'm making about the general predicaments of incertitude. Thank you very much.
[拍手]