?

Log in

No account? Create an account
anshar

anshar


В поисках прекрасного

Путешествия, фотографии, впечатления


Previous Entry Share Next Entry
"How We Know What Isn't So: The Fallibility of Human Reason in Everyday Life", Thomas Gilovich
ra
anshar
Как уже писалось ниже, в декабре я ездил учиться психологии управления в бизнес школу Chicago Booth. Курс был очень интересный и для его более полного усвоения рекомендовалось прочитать немало дополнительной литературы.

Одну из рекомендованных книг я только закончил читать и она мне очень понравилась. Книжка называется "How We Know What Isn't So: The Fallibility of Human Reason in Everyday Life" и написал ее Thomas Gilovich, профессор психологии из Cornell University. К сожалению, у нас книжка не издавалась и доступна только на английском языке. Ее можно заказать на Амазоне (http://www.amazon.com/How-Know-What-Isnt-Fallibility/dp/0029117062) или купить в iBook Store.



В этой книге автор пытается с точки зрения психологии разобраться в механизмах возникновения различных ошибочных поверий, теорий и "народных мудростей". Оказывается, что возникновение таких поверий абсолютно закономерно и проистекает из особенностей нашего мышления и того, как оно работает со случайной и неполной информацией.

Подобные поверья могут быть достаточно безвредны - например, взял с собой зонтик - дождя не будет, но могут быть и довольно опасны - например, вера в уринотерапию как в лекарство от любых недугов. Умение распознавать и противодействовать таким ошибкам в функционировании нашего мышления важно как в бытовой, так и профессиональной сфере. Например, все мы верим, что наказать сотрудника за плохую работу эффективней, чем поощрить его за хорошую работу. Это не так, и психологи уже много раз это доказывали. Но почему мы тогда до сих пор в это верим? Томас Гилович об этом подробно рассказывает и иллюстрирует множеством интересных жизненных примеров.

Книга была написана и издана в 1991 году, поэтому большинство приведенных примеров и ситуаций датируется прошлым веком, но это совершенно не убавляет ее актуальности и пользы. Вобщем рекомендую - очень полезная и интересная книга!


В числе прочего, Томас Гилович рассматривает следующие механизмы возникновения ошибочных поверий:

1. Clustering Illusion - неумение человеческого мозга поверить в случайность полученной информация. Даже в математически случайной последовательности событий, человеческий мозг умудряется находить кластеры и закономерности, которых в действительности не существует. Пример - теория "горячей руки" у фанатов баскетбола.

2. Misunderstanding of Statistical Regression - неумение и непонимание того, что после любого статистического выброса следует коррекция. Пример - директора компаний после особо удачного финансового квартала ожидают, что следующий квартал будет еще более удачным и часто ошибаются, так как случайная составляющая удачи после макисмума как правило регрессирусирует к более средним значениям.

3. Excessive Impact of Confirmatory Information - подтверждения нашей точки зрения мы замечаем чаще и придаем им больше веса, чем опровержениям. Пример - политические оппоненты после изучения одной и той же информации о каком-либо политическом событии еще больше укрепляются в своих противоположных точках зрения.

4. Problem of Hidden or Absent Data - проблема недоступности полной информации для оценки события. Пример - любая внедренная policy. Как мы можем считать ее эффективной, если у нас нет данных для ситуации если бы policy не внедрили или внедрили бы другую policy?

5. Self-fulfilling Prophecies - самосбывающиеся предсказания. Пример - Альфа-банк чуть было действительно не обанкротился несколько лет назад, когда из-за распущенных слухов о его банкротстве, испуганные клиенты забрали почти миллиард долларов со своих вкладов за неделю.

6. One-sided Events - односторонние события. Пример - взял зонт - дождя не будет. Даже если из 10 раз, когда мы взяли с собой зонт, дождя не будет только один раз, мы все равно будем думать что эта мудрость истинна и подтверждается опытом. Потому что 9 случаев, когда мы взяли зонт и дождь был, мы просто не зарегистрируем как события - дождь пошел и у тебя есть зонт - все нормально - нет события.

7. Biasing effect - эффект предубеждения. Если мы уже приняли какую-то точку зрения, то после этого рассматриваем все новые данные с предубеждением. Даже опровергающие данные мы умудряемся интерпретировать в поддержку нашей точки зрения. Пример - либералы и путинцы, читающие пост Навального про распил в Транснефти :)

8. Secondhand information, sharpening and leveling effect - искажение при пересказе, усиление одних деталей и умолчание о других. Пример - любой телерепортаж или рассказ в блоге о событии, в котором вы участвовали лично.

9. False Consensus Effect - эффект ложного консенсуса. Это когда вам кажется, что ваше мнение или точку зрения разделяет намного больше людей, чем на самом деле. Пример - те же политические оппоненты - они всегда думают что большинство нормальных людей разделяет именно их взгляды, а взгляды оппонентов разделяют только маргиналы.


  • 1
Да, жаль что такую литературу на русский особо не переводят. Heuristics and biases того же Гиловича я бы с удовольствием почитал.

Хороший мотиватор чтобы подтянуть английский :)

  • 1