Размерные эффекты и НАНО

Опубликовано 29.03.2012
Станислав Ордин   |   просмотров - 6943,   комментариев - 2
Размерные эффекты и НАНО

Нанотехнологии уже активно используются в микроэлектронике и в создании новых материалов. Но наблюдаемый быстрый рост достижений в различных областях за счет миниатюрности нанообъектов уже сменился насыщением. Связано это с тем, что получение нанообъектов шло эмпирическим путем, так как фундаментальные проблемы НАНО пока не решены. Поэтому не редко изготовленный на базе нанотехнологий объект имеет интересные свойства, но часто не те, которые ожидали от него создатели. Поэтому Intel, запустив новую экспериментальную серию процессоров, потом старается проанализировать, во-первых, как же работают отдельные его элементы, а во-вторых, как же их можно организовать (см. отчеты исследований Intel). Поэтому вырастив новый вид нанотрубок, пытаются понять и применить их необычные электрические и оптические свойства. Даже в области создания конструкционных материалов, где существенным подспорьем для нанотехнологии стала молекулярная физика, прогнозировать свойства полученного объекта редко когда удается – преимущественно тоже голая эмпирика.

НАНО и прямое преобразование энергии.

Но есть область, в которой нерешенные фундаментальные проблемы НАНО, в первую очередь термодинамические, в принципе, блокируют направление поиска. Это прямое преобразование тепловой энергии в электрическую энергию. Вся современная энергетика базируется на получении тепла, превращении его энергии в механическую энергию, а затем, превращение механической энергии в электрическую. При этом, если второй этап преобразования научились делать с достаточно высоким КПД, то на первом этапе преобразования тепла потери весьма велики. В этом несложно убедиться и с помощью глобальных оценок: сжигаемой нефти недостаточно и все более активно используется, так же неэффективно, ядерная энергия. С этим связан и относительно невысокий КПД двигателей внутреннего сгорания.

Принципиальное ограничение КПД преобразования тепловой энергии связано как с макроскопическим теоретическим пределом – циклом Карно, так и с конструктивными потерями на макроскопических элементах преобразователей. Поэтому, когда возникла идея прямого преобразования тепловой энергии в электрическую энергию за счет микроскопических процессов в твердых телах (термоэлектрический и пироэлектрический эффекты) или в плазме (термоэмиссионный эффект), то появилась надежда увеличения КПД. Однако, как вскоре было понято, такие тепловые машины, несмотря на отсутствие вращающихся и качающихся макроскопических деталей (что в некоторых случаях очень существенно), также имеют макроскопические ограничения. Это касается как термодинамического предела КПД, так и усредненных свойств электронов или плазмы. При этом достигнутый КПД термоэлектрического преобразования в три раза ниже, чем у двигателя внутреннего сгорания, а КПД термоэмиссионного преобразования приближается к нему лишь при очень высоких перепадах температуры.

Причин низкого КПД термоэлектрического преобразования две. Первая, на устранения которой и направлены большинство термоэлектрических исследований – это большие потери тепла по кристаллической решетке, существенно большие, чем потери тепла на макроскопических деталях. Но есть и вторая причина, которая более существенна, не решение которой и выпячивает потери по кристаллической решетке. Вторая, а на самом деле первая причина низкого КПД термоэлектрического преобразования (и наоборот), связана с использованием принципиально макроскопического эффекта Зеебека (Пельтье). Данные эффекты, определяются небольшой разницей энергии электронов в потоке, трущихся о кристаллическую решетку, над средней энергией электронов. Т. е. микроскопическое описание квазичастиц просто замаскировало косвенность преобразования за счет эффекта Зеебека (Пельтье) – в преобразовании энергии принципиально участвуют колеблющиеся атомы кристаллической решетки.

Само осознание главной причины низкого КПД термоэлектрического преобразования потребовало преодоления некоторых стереотипов и теоретических пределов, возникших на базе макроскопических представлений. Во-первых, первоначально смысл МИКРО относился к отдельным атомам, на базе электронных уровней которых и были построены для описания макроскопических свойств, электронные зоны в кристаллах. Поэтому и на масштабе МИКРО (в современном понимании - микроэлектроника), и на масштабе НАНО использовать макроскопические кинетические коэффициенты некорректно. Поэтому потребовалось переосмысление описания (моделей) движения электронов на микро/нано-масштабе. Во-вторых, необходимо было преодолеть запрет на рассмотрение локальных термодинамических эффектов, что собственно сделал Илья Пригожин. Как следствие, эпизодически наблюдаемые на контактах так называемые «аномальные» термоэлектрические эффекты были переведены в нормальные контактные эффекты, которые были надежно измерены на контакте, который микроэлектроника давно уже научилась делать с хорошей повторяемостью – на p-n переходе. И, наконец, необходимо было преодолеть стереотип (который, в основном, существует у большинства физиков до сих пор), что макроскопические электрические свойства не обязательно усредненные, среднестатистические по макроскопическому объему. Во всем уже привычных компьютерах это, очевидно, не так. Но гигантские макроскопические термо-ЭДС в специально созданных структурах из p-n переходов, до сих пор «умники» пытаются списать на какие угодно макроскопические эффекты, но не на сфазированные локальные термо-ЭДС.

Переход от «прямого» преобразования на базе макроскопических термоэлектрических эффектов к реально прямому преобразованию тепловой энергии в электрическую энергию за счет локальных, упорядоченных эффектов, естественно, позволяет существенно (в разы) увеличить КПД преобразования. При этом термоэлектрические устройства на базе структур из p-n переходов будут иметь габариты и массу на порядки меньше, чем у традиционных устройств, а рабочие напряжения будут не доли вольта, а десятки и сотни вольт. Тем самым, область применения термоэлектрического преобразования может быть существенно расширена. Это и возврат автономных генераторов, не зависящих от ориентации, на космические станции. Это и замена двигателя внутреннего сгорания, в первую очередь в Ё-мобилях, на термоэлектрический генератор. Это и создание миниатюрных холодильников, вплоть до микрохолодильника на ядре процессора. Это и создание высокочувствительных и быстродействующих тепловых сенсоров для систем обнаружения и наведения.

Так как в отличие от термоэлектрических генераторов постоянного тока тепловые сенсоры работают на высоких частотах, то для их конструирования достаточно использовать однопленочные структуры из p-n переходов (глубина прохождения температурной волны за малые времена невелика из-за низкой ее скорости). С другой стороны, тепловые сенсоры, в отличие от генераторов, должны эффективно работать при предельно малых перепадах температуры, когда макроскопический предел КПД – цикл Карно, очень мал. Поэтому упорядоченные локальные термоэлектрические ЭДС (на порядок превосходящие среднюю энергию электронов, деленную на заряд электрона), превосходящие макроскопический эффект Зеебека (на порядок, по определению, меньше средней энергии электронов, деленной на заряд электрона) позволят поднять обнаружительную способность тепловых детекторов на порядки над уровнем тепловых шумов.

В частности, на базе локальных термоэлектрических эффектов в p-n переходах по приведенной на рисунке схеме

Рис.1.

Генератор (a) и холодильник (b) на продольном термоэлектрическом эффекте в p-n-переходах.

могут быть изготовлены термоэлектрические холодильники и генераторы, эффективность которых в разы превосходит эффективность последних, изготовленных на традиционных макроскопических термоэлектриках. Создание таких приборов может заменить двигатель внутреннего сгорания и повысить реальную частоту процессоров, которая (без распараллеливания) сейчас не превосходит 200 МГц. В перспективе и для генераторов, и для холодильников постоянного тока необходимо будет разработать технологию создания многослойных структур. Хотя на базе локальных термо-ЭДС возможно создание и генераторов, и холодильников переменного тока.

Но это лишь один конкретный пример того, что корректный учет размерности в термодинамике дает не только объяснение «аномальных» эффектов, но и указывает на путь к их практическому использованию. Изучение законов НАНО-термодинамики позволит продвинуться как в создании искусственных нанообъектов, так и в расшифровке «естественных» геномов человека.

Спекуляции вокруг размеров

Размерные пространственные эффекты исследуются в физике давно. И их два типа. Один, немодный (от слова size - размер), исследуют честные физики. Другой, популярный, особенно у теоретиков и делающих спекулятивные диссертации экспериментаторов, корнями уходит в слово размерность – dimension, количество независимых координат. Speculation – рассуждение, размышление по английски, в физике трансформировалось в обыкновенную спекуляцию на оригинальных идеях для придания наукообразности и значимости публикации. При этом часто пренебрегали строгим математическим и физическим обоснованием использования модели с определенной размерностью.

Так, например, в период повального увлечения физиков сверхнизкими температурами, где можно пренебречь тепловыми колебаниями атомов, для описания свойств кристаллов инертных газов была разработана модель сил Ван-дер-Ваальса. Эта модель позволяет корректно описывать кристаллы с температурой Дебая порядка 10 оК и, соответственно, с максимальными частотами фононов порядка 5 см-1. И эту красивую модель использовали для описания свойств слоистых кристаллов, в частности для сверхвысокотемпературных кристаллов графита и его диэлектрического аналога – нитрида бора с температурой Дебая порядка 2000 оК и, соответственно, с максимальными частотами фононов порядка 1000 см-1 вдоль дебаевской оси, что вошло во все физические монографии.

Само существование низко размерных объектов (их термодинамическая стабильность) также, согласно теореме Ландау, ограничено областью сверхнизких температур. Поэтому, для исследования квантовых особенностей свойств таких объектов их формировали либо на подложке (двумерные), либо в специальной матрице (на пример, в кристалле морденита, имеющего поры диаметром 6А). При описании таких объектов, естественно, взаимодействие с подложкой с необходимостью учитывалось. Но, исходя из предположения, часто обоснованного, что взаимодействие сказывается, в первую очередь, на валентных электронах, и предполагали, что свойства газа свободных электронов проводимости можно описывать одномерными либо двумерными моделями. Но не укладывающиеся в макроскопические представления свойства графита с легкостью можно было «объяснить», отталкиваясь от ван-дер-ваальсовских сил вдоль оси С, чем и занялись многие теоретики. Так графит и нитрид бора стали модельными квазидвумерными кристаллами. При этом их отличие от чисто двумерных подразумевалось опять же очень слабым благодаря опять же очень слабым силам Ван-дер-Ваальса (собака кусающая собственный хвост).

Speculation на тему нуль-мерных объектов – квантовых точек часто проводятся с такой же «строгостью»: без учета и тепловой энергии объектов, работающих при температурах комнатных и выше, и отсутствии матрицы их формирующей (и учитываемой) по независимому параметру. Просто микро, либо нано-включения в полупроводнике с незначительно измененной (меньше кТ) шириной запрещенной зоны. Именно speculation на подобных «квантовых точках» помогли получить Нобелевскую премию Ж. Алферову, хотя прямых доказательств существования в гетероструктурах квантовых точек ни он сам, ни члены его команды не привели.

На мой взгляд, в приведенных в постнобелевском докладе данных нарушен параметр квантования, а вся совокупность «открытых» на их гетероструктурах эффектов хорошо описана в старой книге Хачатуряна: «Спинодальный распад твердых растворов» (аналог реакции Жаботинского в жидких растворах). Так что работа команды Ж. Алферова являет собой характерный пример эмпирических достижений микро/нано-технологии, прикрываемых модными спекулятивными теориями.

От частного к общему

Но все это околонаучная шелуха вокруг фундаментальных размерных эффектов (как size, так и dimension), которые проявляются как масштабные пространственные эффекты. Не учет истинного масштаба сил связи объектов, как в случае с силами Ван-дер-Ваальса или с «квантовыми точками» и привело к тому, что пространственная размерность используется не всегда корректно. Честные же исследования масштабных эффектов, фактически являющихся пограничными между уже существующими теориями, являются основным движителем науки. Наиболее характерный пример – открытие Планком кванта действия при анализе масштаба частоты. Анализируя низкочастотную и высокочастотную модели (по тем временам ЗАКОНЫ) описания излучения абсолютно черного тела, приводящие, соответственно, к ультрафиолетовой и инфракрасной «катастрофе», он получил единую (как сама природа, без расходимостей) функцию Планка, перейдя от непрерывного изменения энергии к квантованному, соответствующего резонансам в теле конечных размеров.

Есть много разных размерных пространственных эффектов, надежно зарегистрированных. Наглядные примеры – дифракционные оптические решетки, разлагающие видимый и невидимый свет («разбрызгивающие» разные длины волн под разными углами), капельки воды, дающие в небе радугу, атомные решетки кристаллов, разлагающие рентгеновские лучи. Даже в электропроводности тонких пленок при низких температурах (!) хорошо видны особенности, связанные с интерференцией электронных волн на размере толщины пленки.

В этом плане НАНО высветило размерные эффекты, и в прямом, и в переносном смысле, между различными областями физики: между одночастичными приближениями и термодинамикой макроскопической. Ситуация, во многом, аналогична той, что была перед открытием Планка. Но для построения термодинамической функции Планка-Пригожина и нахождения термодинамического «кванта действия» требуется от фрагментарного (частного) описания тепловых эффектов в различных областях физики перейти к общему. В этом плане, чтобы учесть все независимые термодинамические силы, для описания локальных (нано) термоэлектрических эффектов понадобилось объединить феноменологии собственно термоэлектричества, p-n перехода и термоэмиссии. В термоэлектричестве учитывали лишь тепловую и электрическую силу: FT, FE. В теории p-n перехода учитывали лишь электрическую и концентрационную силу: FE, FN (учитывалось лишь изотропное воздействие температуры). В термоэмиссии учитывали все три силы, но для очень больших значений, реализуемых лишь в макроскопических условиях. При этом термоэмиссионные расчеты проводились в рамках термостатики, а не термодинамики.

Также потребовалось отойти от кинетических коэффициентов - инвариантов на макро-масштабе, к строгому расчету параметров на микро/нано- масштабе. При этом главной, психологической проблемой является необходимость не свалиться при постановке экспериментов и моделировании (расчетах) в лианеризацию, что у целого поколения физиков воспитывалось как корректное первое приближение. Так, вопреки элементарной математике, дающей линейное разложение экспоненты при значениях аргумента много меньше единицы, в основах физики полупроводниковых приборов ЗАЛОЖЕНА линейность вольт-амперных характеристик (ВАХ) до очень больших напряжений kT/e (25 мВ при комнатной температуре), соответствующих равенству аргумента единице. В экспериментах уже давно наблюдают, мягко говоря, отличие от данного ЗАКОНА, но, при этом, стараются описать отличие экспериментальных ВАХ за счет поправок, не подвергая сомнению корректность первого приближения. Однако честный расчет ВАХ даже симметричного барьера с учетом баллистических свойств электронов на длине свободного пробега дает формулу несколько более сложную:

чем разностный ток Ричардсона, который получен в сугубо макроскопических условиях, но тупо используется как закон природы при расчетах микроскопических барьеров. За кажущейся сложностью честной формулы (кажущейся потому, что с помощью современных математических программ она получается элементарно) спрятан простой качественный смысл: ток над микробарьером нелинеен при малых напряжениях и на порядок больше, чем используемые в первом (макроскопическом) приближении. Возможно, с этим и связана суперинжекция носителей в алферовских гетероструктурах, которую, экспериментально наблюдая на нанообъектах, но, не зная как объяснить в рамках макроскопических моделей (что в принципе и невозможно), и пытались «замаскировать» НАНО-НАНО-точками.

Из честных расчетов инвариантов на микро/нано-уровне следует очевидный факт. Сама линейная феноменология

где Qi, Fkи Lik - обобщенные термодинамические потоки, силы и кинетические коэффициенты, соответственно, есть макроскопический предел феноменологии микро/нано-уровня, которая сугубо нелинейна. Разные силы и потоки переплетены и их взаимодействие не может быть описано в виде разложения ни по силам, ни по потокам. Но, главное, взаимодействие между микро/нано-объектами может приводить не только к простому макроскопическому усреднению, но и к изменению их макроскопических свойств. Как следствие, также как и у всем давно привычного компьютера, работающего на нанотранзисторах, получают макроскопический информационный отклик, на базе локальных эффектов может быть получен электрический макроскопический отклик специальных структур из микро/нано-объектов. При этом честное моделирование (без использования найденных макроскопических упрощений) и честный математический расчет (без приближений, с точностью до машинного нуля) уже дали некоторые зависимости для микро/нано-структур, в которые входят лишь фундаментальные константы:

Рис.2.

Относительное изменение тока микроструктуры от разницы работ выхода на границах потенциального микробарьера.

Коммент к статье Разработан первый транзистор, способный самообучаться в процессе работы http://www.nanonewsnet.ru/articles/2013/razrabotan-pervyi-tranzistor-sposobnyi-samoobuchatsya-v-protsesse-raboty#comment-11287 Эффект памяти уже достаточно давно обнаружен в разных материалах. В частности связь «электрической памяти» в металлах с «памятью формы» исследовал Дмитрий Колгунов, о котором писал в своих статьях (см. например, «Лженаука ЭКОНОМИКА»). В этой же статье затронут аспект «памяти» касающийся «самообучения» транзистора. Думаю, это выражение: «самообучения» транзистора, не совсем корректно (по ряду причин –ниже), но затрагивает принципиальный и очень важный МЕТОДИЧЕСКИЙ АСПЕКТ исследования нано-объектов. Как писал в статье «Размерные эффекты и НАНО», при работе с нано-объектами необходимо при самой постановке экспериментов и при попытках интерпретации их результатов отталкиваться не от привычных макроскопических моделей, а учитывать «масштабный коэффициент», в первую очередь не учитываемый ранее «термодинамический масштабный коэффициент», не учитываемый ранее в самом описании работы транзистора, во-первых, и не учитываемый ранее в методике измерений, во-вторых. Первое приводит к неучтённому в теории транзистора вкладу температурной силы. Об этом достаточно подробно сказано в отмеченной выше статье. Второе приводит к тому, что ПОВТОРЯЕМОСТЬ экспериментов с нано-объектами определяется не созданием эквивалентных условий измерения в локальной временной точке, а «ВРЕМЕННОЙ ГЛУБИНОЙ ПРЕДЫСТОРИИ ОБРАЗЦА»! О «ВРЕМЕННОЙ ГЛУБИНЕ ПРЕДЫСТОРИИ ОБРАЗЦА» фактически и идёт речь в этой статье, а самообучаемость – это, грубо говоря, не элементарная память, а функциональная. Функциональная память у компьютеров, как писал в статье «Компьютерный вирус» уже проявляется, с одной стороны из-за присущих нано-транзисторам перечисленных нано-свойств (не учитываемых ранее создателями), с другой стороны, за счёт тоже не учитываемого ранее взаимодействия между транзисторами и локального, и глобального (что проявляется в суперкомпьютерах). В данной работе, что очень важно, обращено внимание на специфику поведения нано-объекта и сделана попытка «управлять» этой спецификой – усилить её влияние.


Комментарии:

Цитировать Имя
Станислав Ордин, 25.02.2013 00:49:01
Вячеслав, может быть ты и прав относительно масштаба самого ПРОСТРАНСТВА. Но я этого не знаю. А что я знаю, проведя как прецизионные эксперименты, так и компьютерное моделирование, так это то, что многие используемые физические модели построены на базе грубых экспериментов прошлого (позапрошлого) века и содержат элементарные математические ошибки. Поэтому описания физических явлений даже на микро-масштабе, как например, в p-n переходе не учитывают ряд независимых параметров. Скорее всего, есть и своего рода нано-инварианты (которые проскочили при статистическом обосновании макроскопики). Так, представленная в статье кривая, содержащая лишь фундаментальные константы, получилась «сама собой» при формальной, можно сказать, подгонке эмпирически полученной зависимости.
Цитировать Имя
Крыленков Вячеслав, 16.02.2013 12:07:12
Станислав, правильно ли я - дилетант - понимаю, что основная проблема создания теории, объясняющей НАНО-эффекты, связана с трудностями описания свойств пространства, в котором развиваются "аномальные" эффекты, которые используются в качестве эмпирических достижений микро/нано-технологий? Иными словами, не выявлен (не рассчитан) универсальный коэффициент (своего рода постоянная Планка?), применяя который можно было бы описать природу "аномальных" НАНО-эффектов? С уважением - В. Крыленков