Врачи удалили из руки пожилого американца 17-сантиметровый металлический предмет, с которым тот проходил более полувека. Операция была успешно проведена в городе Сент-Луис, штат Миссури, и длилась всего 45 минут. Путь к ней, между тем, оказался куда дольше.
Все началось в 1963 году, когда Артур Лэмпит попал в автомобильную аварию: Его новый "Форд Тандерберд" врезался в грузовик. Мужчина сломал бедро и, как считали врачи, сильно порезал левую руку.
Когда позднее оказалось, что на эту руку постоянно "реагирует" металлодетектор установленный перед входом в здание суда, автолюбителю сделали рентгеновский снимок и на нем увидели засевший в мягких тканях рычаг для включения сигнала поворота.
Долгое время инородное тело не доставляло Артуру Лэмпиту беспокойства, и было решено оставить все как есть. Впервые рука начала болеть только в конце декабря прошлого года после сильных физических нагрузок. "Все было в порядке, пока она не начала сильно распухать", — рассказала его супруга Бэтти.
Природу этого случая объяснили врачи. Рука долгое время не беспокоила Лэмпита, потому что мягкие ткани сформировали своего рода "защитный футляр" вокруг инородного тела. "Подобное бывает, но обычно это не такие большие предметы, а, скажем, гвоздь или дробинка, — цитирует ТАСС слова хирурга Тимоти Ланга, который и извлек деталь. — Часто инородные тела такого размера вызывают воспаление".
Теперь 75-летний пациент, по его собственным словам, собирается сделать из рычага, который так долго находился в его теле, что-нибудь на память. Например, цепочку для часов.
Статус: |
Группа: Посетители
публикаций 0
комментария 4082
Рейтинг поста:
спасибо за совет, конечно, но что-то я не помню, что жаловался на проблемы. большего целочисленного, чем 8-байтовый беззнаковый long, .NET не предлагает ;) накопление статистики идет в массиве такого типа. полагаю, что я надорвусь собирать текстовые файлы, для обработки которых лонга будет недостаточно.
Статус: |
Группа: Эксперт
публикаций 0
комментариев 377
Рейтинг поста:
Статус: |
Группа: Посетители
публикаций 0
комментария 4082
Рейтинг поста:
прямого практического конечно же нет, но технология Т9, да и шифрование, начинались с подобных статистических упражнений, если можно так выразиться. я давно, лет 20 назад, в меньшем масштабе проводил такой эксперимент на 8-разрядных машинках, а теперь сподобился повторить в большем масштабе. так, в образовательных целях. если бы не любопытный казус, я бы и не заикался о своих способах организации досуга ;)
Статус: |
Группа: Посетители
публикаций 0
комментария 2253
Рейтинг поста:
Возможно это так и есть, но не вижу практического или иного применения данного случая.
--------------------
Статус: |
Группа: Посетители
публикаций 0
комментария 4082
Рейтинг поста:
имеется ввиду размер файла, длина в байтах. тестовые файлы были набраны из набора разных произведений в разных кириллических кодировках в формате .txt, но на одном языке. чтобы не вести отдельно статистику строчных и прописных символов, коды которых различаются, все символы были переведены в верхний регистр. физический размер литер разных алфавитов в данном случае не имеет значения.
вы представляете себе сборники из десятков произведений? уверен, что представляете. сборник в 60-70 мб информации - это о-очень толстая книжка в бумажном исполнении, я затрудняюсь сказать точно, но где-то в 30 000 страниц, навскидку. а теперь представьте, что в двух разных сборниках разных произведений, по разному разбитых на главы и абзацы оказалось одинаковое количество букв и почти одинаковое количество прочих знаков (запятых, точек и т.д.) - разница 4 знака. это удивительно даже просто для двух книг, а тем более для сборников случайных произведений. я же говорил - попробуйте специально подобрать два набора цельных (!) законченных (!) произведений у которых совпадет количество букв, да еще и за минусом случайного количество прочих знаков. моей заслуги нет - все получилось случайно, в этом и суть.
к sarkey
способ-то найдется, было бы у кого-нибудь желание получить данные. в архиве комплект занимает 35 мб. исходящая у меня небольшая, сорцы в vb.net для vs2010, т.е. заморачиваться с выгрузкой и консультациями по использованию, стоит только при наличии чьего-нибудь интереса и желания.
что касается текстов, то это сборники библиотек с CD. детективы, фантастика, я даже не все читал, а подбирая, вообще не смотрел, что попадает в набор. Ю.Семенов есть, Кожевников, Гарднер, Стаут, Белянинов, Головачев, Бушков. все подряд. уникально совпадение, а не состав набора. меня больше заботило, что кодировки в них были неодинаковыми.
Статус: |
Группа: Посетители
публикаций 0
комментария 2253
Рейтинг поста:
Честно сказать не очень понимаю. Например, размер печатного символа/оттиска кириллицы и латиницы, примерно одного размера. Если количество страниц в обоих произведениях равно, то и общее кол-во символов должно быть равно, что в этом странного? Кол-во же отдельно взятых символов, может совпадать, если совпадает кол-во звуков, которые они призваны передать. Чего-то я не понимаю, что в этом есть?
--------------------
Статус: |
Группа: Редакция
публикации 12002
комментария 7832
Рейтинг поста:
А что за произведения, и если не сложно можете выложить программу для того, чтобы читатели могли повторить опыт с текстом?
А зачем тут анонимность? Выложите исходники (тексты + ПО) на файлообменник, например, те же sendspace, Яндекс Диск, Мегу. И дайте ссылку на скачивание.
Для анонимности воспользуйтесь Тором, если нужно)
Статус: |
Группа: Посетители
публикаций 0
комментария 4082
Рейтинг поста:
вчера, или уже сегодня, т.к. дело было в районе часа ночи, в Спб произошло локальное, но статистически невероятное событие.
масштаб его ничтожен, но вероятность очень мала. впрочем, судите сами.
меня давно грызло желание каким-нибудь образом подсчитывать количество тех или иных символов в некотором наборе текстов и сравнивать статистику. зачем, уже не помню, но это желание уступало лишь приступам лени, которые накатывали при взгляде на объем работы, которую надо было провернуть при подготовке обрабатываемых данных. множество кириллических и международных кодировок, а также тенденция современных создателей средств разработки тяготеть к объектному программированию в визуальных средах, игнорировать оконные интерфейсы в классических компиляторах и повсеместный переход на юникод пр работе со строками, припадков нездорового энтузиазма не вызывали. но наконец лень сдалась и были найдены средства и способы.
была написана корявенькая програмка, которая тупо подсчитывала количество всех 256 видов символов в подготовленных файлах и выдавала в окно статистику в виде табулированой таблицы. файлы брались из различных библиотек художественных текстов. они приводились к единой кодировке (ANSI), объединялись в несколько больших файлов и символы переводились в верхний регистр (можно было и в нижний, не суть). несколько досадных накладок при объединении и приведении данных к единому виду, вынудили разделить данные на несколько файлов, поиск ошибок в которых не отнимал бесконечное количество времени. в результате были созданы 4 файла размером от 60 до 130 мб (я не собирался ставить рекордов). интерес вызвали два из них.
их размеры: 68 946 609 и 68 946 613 байт, как не трудно заметить, различаются всего на 4 байта. файлы абсолютно различны по содержанию, составлены из разных произведений, в разном количестве взятых из разных каталогов. никакой специальной подгонки размеров заранее не осуществлялось.
так вот, программа подсчитывает число всех кодов символов в файле, но статистика выдается только по символам алфавитным. все прочие пробелы, запятые, дефисы, подчеркивания и прочие - игнорируются. и вот после отбрасывания неопределенного числа управляющих, пунктуационных и прочих непечатных символов количество букв оказалось одинаковым - 50 044 301 символ ровно.
а количество всех отброшенных символов, соответственно, различается всего на 4.
понимаете? мало того, что два, немаленьких надо сказать, текстовых файла, оказались практически одинакового размера, так еще и количество символов алфавита оказалось в них одинаковым абсолютно.
но это еще не все - частота употребления каждого символа тоже совпала абсолютно! т.е. в обоих файлах буквы, например "А", встречаются одинаковое количество раз - 4 072 524. и так - с каждым символом! "Ъ" - 14 626, "Ы" - 925 187, "О" - 5 581 902 и т.д. пруф (размеры вы можете представить) может быть выслан любому желающему, кто предложит способ передачи не ухудшающий условия анонимности автора.
тем, кто сомневается в невероятности произошедшего, предлагается попробовать составить аналогичный набор тестовых данных, из набора полных (!) художественных произведений, с заранее заданными статистическими характеристиками. вот моей лично заслуги, в составлении этих примеров, нет никакой. я лишь отметил и поделился наблюдением.
невероятность события можно проиллюстрировать следующим примером, который я привел брату: допустим, его жена и соседка, независимо друг от друга готовят на своих кухнях новогодний оливье, а при статистическом сравнении оказывается, что количество горошин, кусочков колбасы и крупинок соли в их салатах - абсолютно одинаково.
вот так вот бывает, с наступившим всех. ;)
PS. извините, таблиц несколько, точные цифры пришлось подправить. теперь их количество приведено точно в соответствии с полученным результатом. порядок следования в отсортированной таблице следующий (сначала более часто встречающиеся): ОЕАНИТСЛВРКМДУПЯЬЫЗБГЧЙЖШХЮЭЦЩФЪ. "Ё" находится в другой части таблицы и не участвовала в состязании ;)
интересно, что в других наборах исходных данных приведенная последовательность сохраняется, но некоторые соседние символы меняются позициями в отсортированном списке. например, "Н" и "И" меняются местами или "В" и "Р".