セクハラというのは、論理学の問題ではないかと思える。「女(男)は◯◯だ」と主張することが異性にとって「不快」であることがセクハラ言動だと私は理解している。この言葉を「すべての女(男)」と受け止めるから不快になる。「私は◯月◯日、◯◯という女(男)が◯◯することを体験した。よって、この女(男)は◯◯だと理解した」という言動はセクハラにはならないのではないだろうか?
あるいは、「お前は◯◯だ」と言われることがセクハラなのだとすれば、カウンセリング・マインド、コーチングの見地に立てば、「あなたの◯◯という行動は、私から見れば◯◯に見える」という言動はセクハラにはならないのではないだろうか?しかも、それが相手の成長を願う言動であれば問題は生じないように思える。
ゼロ・トレランスを主張する人々は多分法律関係、ポリティカル・コレクトネスを求める人々なのだと私は思う。基本的に、法律の用語というのは、わざわざ限定をつけていない限り「すべての」という形容詞が主語の前提とされている。
第199条
刑法第199条 - Wikibooks
人を殺した者は、死刑又は無期若しくは5年以上の懲役に処する。
刑法199条の条文における「者」は、「すべての」「者」(人)という意味だ。年寄りだろうが、赤ん坊だろうが、男でも、女でも、トランスジェンダーでも、日本に旅行できた外国人でも、すべての「者」にあてはまる。同様に、冒頭の「人」もすべての人だ。私達の日常の言葉においてついつい「人」、「女(男)」、「LGBT」などについて無限定で使ってしまいがちだ。しかし、日常の言動は法律用語とは違いその場面や、話者、タイミングにおうじて限定されている。あるいは、つい「私にはそう思える」という自分の個人的な意見であることを明示しないで使うことが多い。これが「セクハラ」問題には存在するのではないだろうか?
ちなみに、本来法律用語においても条文のネットワークの中でほぼすべての主語は暗示された「限定」を含んでいる。この暗示されている「限定」を明確にするのが私は法学の存在意義だと私は思っている。しかし、得てして徹頭徹尾論理が貫かれていない気がしてならない。80年台認知科学で期待されたAIの応用例として、法律のプロダクションシステム、エキスパートシステムがあった。
米国においてはケースの検索、分析などで人工知能が応用されるケースがあると聞く。
しかし、法律の推論、論理的整合性検討までできる人工知能は聞いたことがない。検索したら、吉野一先生の研究が出てきたくらい。
http://www.meijigakuin.ac.jp/~yoshino/documents/lecture/1.ppt
まあ、そう遠くない将来にセクハラ予防の人工知能ができ、人の言動について「その意図、適用範囲は◯◯です」などと企図しないセクハラ言動について訂正がリアルタイムで行われるようになるのではないだろうか?特に、ツイッター等の言動についてはセクハラフィルター的な人工知能の必要性を強く感じる。